看得见的手!机械义肢能辨认500项物件并自动调整手势

工程师们常收到抱怨设计出来的东西不能真正满足使用者需求,但是设计的改良需要一套循序渐进的过程,其实工程师也想要贴心,也想越来越懂你。

不然为什幺要给这个机械手装上眼睛?

不要小看这个眼睛的作用,在长眼睛之前,机器手需要你告诉它每样东西都该怎幺抓,否则它就胡乱抓。想像一下你闭着眼睛找东西的样子,大概就是这样。

机器手是本来就有的,摄影镜头和图像识别技术也是本来就有的,但是把这三样已知技术结合在一起,就解决了义肢 「瞎抓」 的问题。这是 英国新堡大学 生物医学研究人员想出来的主意:把一个可以进行图像识别的摄影镜头搭在一个义肢原型上。

使用已经开发好的电脑视觉技术,研究人员通过深度学习训练这个摄影镜头识别 500 个物体。比如当使用者想要拿起一个杯子,不需要自己向义肢输入任何讯号,在你把手伸向杯子的过程中,义肢的摄影机会对眼前的物体拍照,在后台识别,然后根据深度学习训练的结果判断这个物体应该怎幺抓,再把手型调整到相应的抓握形状,最后一步根据用户的肌肉放电讯号确认抓力。

新堡大学生物医学讲师 Kianoush Nazarpour 博士说,「使用电脑视觉,我们开发出一种能够自动反应的仿生手,实际上就像一只真正的手,用户可以快速地使用对的方法去拿一杯水或者一块饼乾。」

「这个系统的优势在于它更灵活,能够拾取新鲜的物体。这是相当重要的,因为在日常生活中,人们需要毫不费力地拿起他们从未见过的各种物品。」

目前已有的义肢,通常需要使用者用各种方式传达一些信号才能做出相应的动作反馈,也就是不管透过什幺方式,你需要告诉你的义肢你要拿什幺。

比如在肩部或者断肢位置接入电极阵列用来读取肌肉活动,在感知皮层植入电极阵列用于感知用户的想法,随后透过感应器发出手势信号,告诉义肢该怎幺行动。这种把测量神经信号的感应器植入肌肉内部应该是目前最先进、最昂贵的义肢了。

美国国防高等研究计划署在 2016 年底上市的 LUKE 就是这样的义肢。 DARPA 希望 LUKE 是那种佩戴之后你可以用大脑控制的义肢,只要脑子想做出什幺动作,机械手就会对应去完成,目前已知 LUKE 已经可以完成吃汉堡、拿钥匙开门、刷牙梳头、吃汉堡,甚至是拉拉鍊这种很细节的动作。

这的确是一种理想的生物手替代品,但是这样的高级手并不是每一个需要义肢的人都能负担的起。先前有传言称一只 LUKE 的价格大概在 10 万美元左右。

给机械手装上眼睛让它自己去看,相对来说就便宜多了。

根据新堡大学研究人员的说法,安装了眼睛的义肢,反应速度要比市场上大多数义肢快 10 倍左右。而且也很便宜,这个义肢的眼睛使用的仅是一个普通的罗技

摄影镜头,用于图像识别训练的 AI 模型也可说是很廉价的。

最重要的是,使用者可能不太需要动什幺脑子去跟义肢对话和沟通,一些交给义肢自己解决。

不过也不是说它就是完美的,首先用于识别的神经网路不能做到完全準备,目前只有大约 80%-90% 的準确率;其次如果真的实现大规模应用的话,除了长眼睛之外,这只手最好还要长脑子,能做到记忆和自主学习,而不仅仅是依赖工程师不断的餵标籤数据。

世界这幺大,需要把握的东西太多,一只 迟钝的机械手也许还是会错失一些机遇和幸运。知道怎幺捡起地上掉的钱包,却不知道怎幺捡起刚飘落的一朵花,也是一件挺遗憾的事情。


上一篇:
下一篇: