【AR实验室】mulberryAR : ORBSLAM2+VVSION

  • 时间:
  • 浏览:0

本文转载请注明出处 —— polobymulberry-博客园

0x00 - 前言


mulberryAR是我业余时间弄的1个多AR引擎,目前主要支持单目视觉SLAM+3D渲染,或者支持iOS端,或者该引擎上能很方便地移植到Android端。slam模块使用的是ORB-SLAM2,3d渲染模块使用的是VVSION渲染引擎。该引擎目前实现的功能为简单的3D模型摆放,用户还时需对3D模型进行平移、旋转和缩放。

先放两张mulberryAR的效果图。

0x01 - 单目视觉SLAM模块


单目视觉SLAM模块采用的是ORB-SLAM2。ORB-SLAM2是目前比较优秀的视觉SLAM系统,其输入为图像视频流,通过SLAM计算出每帧图像对应的相机位姿以及这些行态点对应的3D位置。不过mulberryAR目前只用到了每帧对应的相机位姿。

目前mulberryAR对ORB-SLAM2沒有 做不要 的修改,或者为了集成进mulberryAR中,时需对ORB-SLAM2的接口做出这些修改以适应iOS系统的移动设备。这些要素主要参考两份资料:

  • ORB_SLAM_iOS ORB-SLAM在iOS上的移植,作者去除了ORB-SLAM对ROS的依赖,并使用了iOS的Metal和Scene Kit进行渲染。相比ORB-SLAM2,还时需依赖boost库。
  • ORB-SLAM2注释版 作者对ORB-SLAM2进行了完整地注释,上加了BoW(Bag of Word)的二进制文件加载依据 。

修改1:ORB-SLAM2上面使用了BoW(Bag of Word)进行行态匹配。其中的BoW是通过加载ORB-SLAM2原始文件中的ORBvoc.txt获取的,不过移动端直接加载ORBVoc.txt文本文件来构建BoW非常耗时,在ipone4 ipone4 ipone4 s上要几分钟时间。使用ORB-SLAM2注释版中Vocabulary/bin_vocabulary.cpp还时需将ORBVoc.txt转换为ORBVoc.bin。或者使用该版本DBoW2和g2o替换ORB-SLAM2中的DBoW2和g2o,ORB-SLAM2注释版上面的/Thirdparty/DBoW2/DBoW2/TemplatedVocabulary.h上加了loadFromBinaryFile函数,还时需直接加载ORBVoc.bin,在ipone4 ipone4 ipone4 s上加载的时间也降到小于3秒钟。

修改2:ORB-SLAM2源码中的示例获取图像视频流的依据 是通过解析预先处理好的视频文件,而mulberryAR时需通过ipone4 ipone4 设备实时捕捉图像视频。这里时需使用iOS的视频捕捉模块。一很久结束了了捕捉依据 参考了我很久的博客【AR实验室】OpenGL ES绘制相机(OpenGL ES 1.0版本)中的0x02 - AVCaptureSession获取拍摄内容小节。获取到了图像就还时需调用ORB-SLAM2中的System::TrackMonocular函数求解位姿。注意TrackMonocular很耗时,这些这些当让我们构建1个多DISPATCH_QUEUE_SERIAL类型的进程,并将TrackMonocular抛给它。另外在主进程dispatch_get_main_queue()中利用TrackMonocular得到的相机位姿进行绘制。

修改3:图形学中绘制1个多有点硬要的矩阵:模型视图矩阵ModelView,这些这些将3D模型从模型局部坐标系转化到相机坐标系的1个多转化矩阵。注意TrackMonocular函数返回的Tcw时需一定的转化上能作为模型视图矩阵,这些步完整参考了ORB_SLAM_iOS中的处理依据 ,或者我也完整都不 很清楚为社 要沒有 处理,尤其是两处取负号的要素,这些这些此处将代码列出供当让我们参考。

// poseR = mCurrentFrame.mTcw.rowRange(0,3).colRange(0,3);
// 当前帧变化矩阵的旋转要素
cv::Mat R = _slam->getCurrentPose_R();
// poseT = mCurrentFrame.mTcw.rowRange(0,3).col(3);
// 当前帧变化矩阵的平移要素
cv::Mat T = _slam->getCurrentPose_T();

// 将旋转矩阵转化为四元数,注意qy和qz的取了负号。
float qx,qy,qz,qw;
qw = sqrt(1.0 + R.at<float>(0,0) + R.at<float>(1,1) + R.at<float>(2,2)) / 2.0;
qx = (R.at<float>(2,1) - R.at<float>(1,2)) / (4*qw);
qy = -(R.at<float>(0,2) - R.at<float>(2,0)) / (4*qw);
qz = -(R.at<float>(1,0) - R.at<float>(0,1)) / (4*qw);
// 将四元数转化为旋转矩阵,即r1、r2、r3。或者将平移矩阵填充到r4。
// 注意其中T.at<float>(1)和T.at<float>(2)取了负号。
vec4f r1(1 - 2*qy*qy - 2*qz*qz, 2*qx*qy + 2*qz*qw, 2*qx*qz - 2*qy*qw, 0);
vec4f r2(2*qx*qy - 2*qz*qw, 1 - 2*qx*qx - 2*qz*qz, 2*qy*qz + 2*qx*qw, 0);
vec4f r3(2*qx*qz + 2*qy*qw, 2*qy*qz - 2*qx*qw, 1 - 2*qx*qx - 2*qy*qy, 0);
vec4f r4(T.at<float>(0), -T.at<float>(1), -T.at<float>(2), 1);

0x02 – 3D渲染引擎模块


3D渲染引擎模块使用的是VVSION渲染引擎。选取这款渲染引擎也是尝试过这些这些这些渲染依据 才决定的,主要代表为cocos2d-x、vvsion和原生opengl es。下面对着有某种依据 的优缺点进行对比。

  cocos2d-x vvsion 原生opengl es
优点 1.支持的渲染组件很雄厚,基本不时需后期上加新的功能 1.相对于cocos2d-x整体轻巧,易于集成和二次修改。

2.还时需直接传递模型视图矩阵,何必 进行转化。
1.完整还时需根据此人 的需求开发出相应的模块,不需要困于已有的功能模块。
缺点 1.体积较大

2当让我们们此处获取到的为原生的模型视图矩阵,如何直接把模型视图矩阵传递给cocos2d-x的绘制模块就成为了1个多问题。我尝试了这些这些依据 都沒有 成功,或者或者有某种对cocos2d-x完整都不 有点硬熟悉,这些这些放弃。
1.沒有 cocos2d-x的功能多 1.工作量巨大!

vvsion有某种支持这些简单的渲染功能,比如模型的导入和渲染,使用的是opengl es 2.0。不过还地处2个不够,mulberryAR对此进行了优化。

修改1:它有某种提供的模型渲染过于简单,这些这些简单的贴图,此处mulberryAR在原始shader中上加了diffuse功能,主这些这些将模型的法向传入,做光照处理。

// vertex shader
attribute vec4 position;
attribute vec2 texCoord0;
attribute vec4 normal;

varying vec2 v_texCoord;
varying vec4 v_normal;

uniform mat4 matProjViewModel;
// ModelView.inverse().transpose()
uniform mat4 matNormal;

void main()
{
    v_texCoord = texCoord0;
    v_normal = matNormal * normal;
    gl_Position = matProjViewModel * position;
}

// fragment shader
precision highp float;

uniform sampler2D texture0;
varying vec2 v_texCoord;
varying vec4 v_normal;

void main()
{
    gl_FragColor =  texture2D( texture0, v_texCoord);
    vec3 lightDir = vec3(0.0, 0.0, 1.0); // 假设光照方向
    // 求解diffuse
    float dotRes = dot(normalize(v_normal.xyz), normalize(lightDir));
    float diffuse = min(max(dotRes, 0.0), 1.0);
    gl_FragColor.rgb = vec3(diffuse * gl_FragColor.rgb);
}

修改2:获取到的相机图像时需进行显示,此处,mulberryAR使用了贴纹理的依据 进行渲染。当让我们使用了1个多camera.obj的平面模型作为相机图像的展示平面,只需每次将camera.obj的纹理更新为相机图像即可。此处时需注意一下两点:

  • camera.obj的显示使用的是正投影,或者注意其强度值设置大这些,处理遮挡住了前面的模型。
  • NPOT(No Power of Two)纹理的设置选项,其中Wrap依据 要设置为GL_CLAMP_TO_EDGE,Mag/Min Filter依据 设置为GL_LINEAR,或者何必 产生MinMap。或者纹理会显示为黑色。

修改3:为了提高模型的真实感,增加了fake shadow的效果,这些这些在模型底部上加一块圆形的阴影。这些这些在模型底部上加了1个多fakeshadow.obj的模型,或者贴上透明的圆形阴影纹理。优点是简单,节省计算资源,或者还不时需考虑真实的光照方向。

0x03 - mulberryAR性能效果分析


视频效果展示(腾讯视频链接):

mulberryAR Demo:https://v.qq.com/x/page/c03635umclb.html

mulberryAR在ipone4 ipone4 ipone4 s上Release版本测试为6FPS。可见其帧率还无法令人满意,主这些这些提取ORB行态这些步耗时比较多,后期会再此基础上做一定优化。下表中ExtractORB表示每帧ORB行态提取的耗时,TrackMonocular为每帧的整个SLAM系统的耗时。

另外,ORB-SLAM2的初始化变慢,丢失上上能快速找回。整体来说,算不算目前最好的单目视觉SLAM了。

0x04 - 参考资料


  • ORB-SLAM2
  • ORB_SLAM_iOS
  • ORB-SLAM2注释版
  • VVSION渲染引擎
  • 【AR实验室】OpenGL ES绘制相机(OpenGL ES 1.0版本)
  • https://zhuanlan.zhihu.com/computercoil