这个长了眼睛的机械手,无需特殊编程就能抓500种东西
工程师们常被抱怨设计出来的东西不能真正满足用户的需求,但是一个设计的改良需要一个循序渐进的过程,其实工程师也想要贴心,也想越来越懂你。不然为什么要给这个机械手装上眼睛?
https://p3-sign.toutiaoimg.com/mosaic-legacy/1e1f000694f7ffbd4dcd~tplv-tt-large.image?x-expires=1969573349&x-signature=QV%2BOnJ4KVGyabGA16deBSHN0h5M%3D
不要小看这个眼睛的作用,在长眼睛之前,机器手需要你告诉它每样东西都该怎么抓,否则它就胡乱抓。想象一下你闭着眼睛找东西的样子,大概就是这样。
https://p3-sign.toutiaoimg.com/mosaic-legacy/1e200006892994f334fe~tplv-tt-large.image?x-expires=1969573349&x-signature=Dhn0ymMquuFTtpuxAQUUZaq33Zo%3D
机器手是本来就有的,摄像头和图像识别技术也是本来就有的,但是把这三样已知技术结合在一起,就解决了假肢“瞎抓”的问题。这是英国纽卡斯尔大学生物医学研究人员想出来的主意:把一个可以进行图像识别的摄像头搭在一个假肢原型上。
这不是一个抓人眼球的机械手,这是一个拥有自己眼球的机械手。
使用已经开发好的计算机视觉技术,研究人员通过深度学习训练这个摄像头识别500个物体。比如当使用者想要拿起一个杯子,不需要自己向假肢输入任何信号,在你把手伸向杯子的过程中,假肢的摄像头会对眼前的物体拍照,后台识别,然后根据深度学习训练的结果判断这个物体应该怎么抓,然后把手型调整到相应的抓握形状(比如拿起一支笔需要夹持的动作,拿起一杯水需要握住杯柄垂直移动),最后一步根据用户的肌电信号确认抓地力。
纽卡斯尔大学生物医学讲师Kianoush Nazarpour博士说,“使用计算机视觉,我们开发出一种能够自动响应的仿生手,实际上就像一只真正的手,用户可以快速的使用正确方法去拿一杯水或者一块饼干。
“这个系统的优势在于它更灵活,能够拾取新鲜的物体。这是至关重要的,因为在日常生活中,人们需要毫不费力地拿起他们从未见过的各种物品。”
目前已有的假肢,通常需要使用者用各种方式传达一些信号才能做出相应的动作反馈,也就是不管通过什么方式,你需要告诉你的假肢你要拿什么。
比如在肩部或者断肢位置接入电极阵列用来读取肌肉活动,在感知皮层植入电极阵列用于感知用户的想法,随后通过传感器发出手势信号,告诉假肢该怎么行动。这种把测量神经信号的传感器植入肌肉内部应该是目前最先进、最昂贵的假肢了。
美国国防高等研究计划署(DARPA)在2016年底推出售卖的名为LUKE就是这样的假肢。DARPA希望LUKE是那种佩戴之后你可以用大脑控制的假肢,只要脑子里想做出什么动作,机械手就会相应完成,目前已知LUKE已经可以完成吃汉堡、拿钥匙开门、刷牙梳头、吃汉堡,甚至是拉拉链这种很细节的动作。
https://p3-sign.toutiaoimg.com/mosaic-legacy/1e200006892b5e95af0f~tplv-tt-large.image?x-expires=1969573349&x-signature=iscU86G2K%2FfkELAWOsPjqWjXnhc%3D
这的确是一种理想的生物手的代替,但是这样的高级手并不是每一个需要假肢的人都能担负的起的。此前有传言称一只LUKE的价格大概在10万美元左右。
给机械手装上眼睛让它自己去看,相对来说就便宜多了。
根据纽卡斯尔大学研究人员的说法,安装了眼睛的假肢,反应速度要比市场上大多数假肢快10倍左右。而且也很便宜,这个假肢的眼睛使用的仅是一个普通的Logitech摄像头,用于图像识别训练的AI模型也可说是很廉价的。
最重要的是,使用者可能不太需要动什么脑子去跟假肢对话和沟通,一些交给假肢自己解决。
不过也不是说它就是完美的,首先用于识别的神经网络不能做到完全准备,目前只有大约80%-90%的准确率;其次如果真的实现大规模应用的话,除了长眼睛之外,这只手最好还要长脑子,能做到记忆和自主学习,而不仅仅是依赖程序员不断的喂标签数据。
世界这么大,需要把握的东西太多,一只迟钝的机械手也许还是会错失一些机遇和幸运。知道怎么捡起地上掉的钱包,却不知道怎么捡起刚飘落的一朵花,也是一件挺遗憾的事情。
更多内容,关注品玩微信号:
wepingwest限量开放入群申请……PingWest品玩的老朋友了?何不扫码加客服进群聊
页:
[1]