随后机器人大讲堂也咨询了宇树科技干系职员,Unitree B1搭载公司自研最新的雷达与视觉技能,能够实现高精度的环境感知与导航能力,但宇树也提到,Unitree B1并非为视障人群设计,而是面向工业场景如电力巡检、应急接济场景打造,侧重机器人稳定型与拓展能力。但对付视障人士来讲,由于视觉的缺失落因此语音交互与预警功能变得非常主要。此外Unitree B1售价昂贵,无论是对照顾护士机构还是对个人来讲,都是一笔不小的开支。
▍可在室内精准导航 搭载AI技能的四足导盲机器人“RoboGuide”
那么有没有一种更低本钱的导盲改造方案呢?答案是有的,近日格拉斯哥大学詹姆斯-瓦特工程学院与慈善组织互助以宇树Unitree Go1四足机器人为主体,改造了一台搭载AI技能的四足导盲机器人“RoboGuide”。
该机器人搭载大措辞模型,不仅能够帮助视障人士独立行动,还能为他们讲述周围发生的事情(杭州亚残运会Unitree B1的既视感再次浮现)。不过,研究职员也表示,此前四足机器人导航每每依赖GPS定位,这种定位技能虽然在户外表现出色,但在室内的表现每每不尽如人意,尤其是在半地下或地铁等公共场景下,旗子暗记会常常涌现丢失的情形。与此同时,如果纯挚依赖摄像头来进行导航的话也存在问题,由于四足机器人的视线高度限定,在不雅观察周围环境时不可避免被障碍物遮挡,难以安全地勾引人们绕过障碍物或弯道。
为办理这一问题,机器人通过在Unitree Go1背部安装打算机视觉与3D相机模块来对全体环境进行扫描,同时合营多个传感器硬件,扫描所处环境空间,理解当前空间的每个物体、每根柱子,以及每个障碍物的详细位置,并且准确绘制出环境舆图。
除本体外RoboGuide也搭载两枚双目立体相机以及3D激光雷达模块
值得一提的是,Unitree Go1本体带有5组鱼眼双目深度感知+鱼眼AI感知摄像头,感知角度能够达到150x170°。其性能相称于20组Intel Realsense感知角度。视频当中,我们也在格拉斯哥大学改装版“RoboGuide”机器人身上增加了两枚双目立体相机,顶部搭载3D激光雷达模块。
在软件算法方面,格拉斯哥大学研究团队通过评估绘图数据,利用同步定位和绘图(SLAM)算法来确定从一个地点到另一个地点的最佳路线。该软件实时解读传感器数据,使机器人能够跟踪和避开移动的障碍物。
▍大措辞模型帮助导盲机器人实现与用户的实时沟通
如何与视障人士互换并提醒前方可能涌现的危险,措辞交互成为团队重点办理的一个问题。但传统机器人通过指令或遥控器进行掌握,对视障人士并不友好,为此团队利用人工智能技能,将改版的“RoboGuide”四足机器人实现与视障人士对话的功能。该功能利用大型措辞模型(LLM)来理解和回答周围人的问题,机器人身上则配有一个可播放声音的喇叭。
基于大措辞模型技能,RoboGuide四足机器人可实现处理自然措辞输入(如口语对话),并根据这些输入预测反应。RoboGuide搭载的人工智能基于海量措辞数据集演习得来,能够对用户的问题进行措辞语义理解,并天生相互对应的回答。
RoboGuide除导盲外还供应讲解做事
2023年12月,格拉斯哥大学研究团队开始对RoboGuide进行开放场景测试,约请了数位视障人士作为志愿者,勾引他们参不雅观格拉斯哥亨特博物馆。四足导盲机器人RoboGuide带领志愿者们参不雅观一楼展品,并供应六件展品的讲解内容。在媒体采访中,志愿者激动地表示,会在未来机器人量产后100%乐意付费来购买利用。
格拉斯哥大学研究团队表示,后续还会连续完善RoboGuide在开放场景的测试,获取更多的测试数据来完善四足机器人导盲平台,将更加完善的版本推向市场。此外研究团队表示,目前紧张精力并不会放在四足机器人本体上,而是会在未来开拓出一套完全的系统,可以与各种形状和大小的机器人合营利用,在各种室底细况中及时帮助到须要帮忙的视障人群。
▍结语与未来:
据天下卫生组织统计,环球约有22亿人视力受损人士(包含视障人士),而环球合格上岗的导盲犬不敷两万五千只,供需匹配悬殊。如果RoboGuide能够实现低本钱高性能的商业化开拓,势必会引起另一场科技变革。就目前来看,导盲机器人对付视障人士来讲被列为刚需,并且接管程度较高,家当需求弘大。
下一步该当思考的是如何在室内非构造化场景(包括凌乱房间,门槛以及高下坡等),实现机器人精准导航,同时将导盲机器人售价降落到普通人能够买得起的水平。大概达到这个终极目标还有一段路要走,但我们坚信这条路已经不再迢遥。