-
Notifications
You must be signed in to change notification settings - Fork 34
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
streetSurf dataset #17
Comments
我使用lidar数据的时候出现如下错误,这是不是lidar数据转换不对: 2023-09-04 19:15:08,784-rk0-train.py#959:=> Start loading data, for experiment: logs/streetsurf/owndata_1 |
你好, 1.2. streetsurf 内部唯一定死接口的只有相机坐标系,我们会要求所有不同数据集的相机坐标系统一转到 opencv 格式,目前已经开放的版本中,像 waymo 的、colmap 的、megaNeRF 的、dtu / neus 的,这些不同的数据集的接口都是支持读取的。这些数据集的接口都会 将 c2w 统一转换成 opencv 的 c2w,包括 waymo 也是先转换到 openCV 的 c2w / c2v 来读取的。如果你的相机已经是 opencv 的,那不需要转换直接读取即可。在还在开发尚未开放的版本中,我们已经差不多实现了像 PandarSet、ZoD、KITTI 等数据集的加载器,稍后几天我可以把这些 dataloader(接口) 放出来供你参考。
关于 lidar 读取的这个 bug,抱歉这里我没有抓这个错误给出明确的提示,这里大概率是因为在 使用 相机视野过滤 lidar 光束 (filter_in_cams) 时,所有 lidar 光束都被滤掉了所以采样时候得到的是空矩阵。这可能和 1.2. 提到的 相机读取不正确有关,你同样可以用 #9 中提到的工具看下相机视锥的位置和朝向对不对。 关于 custom 数据集的处理和训练,抱歉我们这里人手不足文档写的不是很齐备,后面陆续可以安排制作一些 tutorial 放出来 |
thanks! 我使用了提到的debug工具检查,发现确实输入进去的相机pose和lidar pose存在问题 |
是的,我看了下lidar的数据应该是要给到对应frame坐标系下,不是世界坐标系,我改了这点然后用waymo接口能跑了,另外可以更新下ViT-adapter的脚本吗,我试试新的mask效果 |
同时问下,你们测试vit-adapter是直接用的预训练模型单独提取天空语义吗,还会单独训练吗 |
Hi, I'm trying to convert my lidar data to the required format. Could you tell me what the dimension of the transformed npz data should be? Something like (N, 3) for rays_o and rays_d or any format else? Thanks. |
hi, 您好,请问下kitti数据集 的 data loader 有开源出来了ma? |
你好,我想把这个代码用在我自己的自动驾驶数据集上
我目前的数据是一个前后目相机,一个40线的车顶斜装激光lidar,在城区道路的数据;
目前我用waymo数据接口跑前视相机,用monosdf生成的深度和normal图像模式跑通了streetbuf的流程,但是效果不行,
我目前的问题有:
1.streetbuf的dataset能用哪些接口,是不是只能用waymo的数据接口;
2.我相机坐标系和opencv相同,这样的话如果我调用waymo接口是不是要改变waymo相机坐标系和opencv相机坐标系之间的转换;
3.目前我用monosdf生成深度和normal图看着还行,但是生成mask天空区域包含部分道路区域,尤其是后视图像mask基本分类错误,这种情况下是不是用lidar好些;
4.lidar数据转化:我目前拿到的数据是每帧激光点在当前激光坐标系下的x,y,z,intensity;所以我处理时是将每帧图像附近0.1秒内的激光点转化为一帧数据,
保存rays_o,rays_d, ranges;
rays_o 的值为:世界坐标系下当前激光传感器位置 (Tw_li).translation() = (Tw_biTbl).translation() ;
rays_d的值为: 世界坐标系下当前激光点方向 (Rw_li[x,y,z]^T).normal()
ranges的值为: sqrt(xx+yy+z*z)
我这样转化的lidar数据有没有什么问题;
5.有没有能够根据给定的pose和传感器数据生成对应渲染图像和lidar模拟结果的接口?
The text was updated successfully, but these errors were encountered: