您的位置 : 首页 > 安定网 > > 大白话聊透人工智能

大白话聊透人工智能AI的短板与未来机会为啥看书厉害抓个球却不行

一、先聊AI的“致命短板”:物理世界里是个“笨家伙” 咱们平时总听说AI多厉害能写论文、能画画、能聊天但你知道吗?AI在现实物理世界里其实挺“笨”的。

就拿最简单的事儿来说让AI抓个球、拼个拼图或者从地上捡个东西它大概率做不好。

你可能会问这是为啥呢?咱们举个例子你让AI读一本关于“怎么抓球”的书它能把书里的精华全吸收了比如“抓球要判断速度、角度”“手指要张开”这些理论它门儿清。

但真让它伸手去抓它就抓瞎了——要么抓空了要么把球捏变形了。

这就像一个学霸把物理书背得滚瓜烂熟但实际动手做实验就一塌糊涂。

有人总结了原因:现在的AI尤其是大语言模型就像个“书呆子”它的知识全是从文本里学的比如书籍、论文、网页。

它没在现实世界里摸爬滚打过没体验过“球从手里滑走”的感觉没感受过“拼图块卡不进去”的挫败所以遇到物理世界的事儿就抓瞎。

打个比方你教一个从没见过苹果的人把“苹果是红色、圆形、甜的”这些文字背得再熟他第一次见到苹果也可能认错因为他没实际摸过、尝过。

二、AI的“培训方式”有问题:光啃书本没接地气 为啥AI在物理世界里这么“笨”?核心问题出在“培训方式”上。

现在培训AI尤其是大语言模型就是把海量的文本知识一股脑灌进去比如把人类写的所有书、所有论文、所有网上的文字都喂给它。

但这就像让孩子只读书本从不出门体验生活他能考上高分但一到实际场景就傻眼。

举个例子你想让AI学会“倒咖啡不洒”如果只给它看“倒咖啡要慢、杯子要拿稳”的文字它永远学不会。

因为它不知道“慢”是多慢“稳”是多稳也不知道咖啡液的重量、流速这些实际因素。

但如果让它在现实里练几百次洒几次咖啡它慢慢就知道怎么控制了。

但现在的AI没这个机会它的“老师”只有文本没有现实世界的“实操课”。

再比如你想让AI理解“什么是软”“什么是硬”。

文本里可能说“棉花是软的石头是硬的”但AI没摸过棉花和石头它对“软”和“硬”的理解就只停留在文字上。

真让它区分一块海绵和一块橡皮它可能就分不清了。

这就是“纸上谈兵”的典型后果。

三、AI缺了个关键能力:空间智能(三维感知) 除了没在现实世界培训AI还缺一个核心能力——空间智能。

啥是空间智能?简单说就是“三维感知能力”比如判断一个物体的大小、形状、位置以及它和其他物体的关系。

咱们人类天生就有这能力。

你看到一个杯子放在桌子边缘会本能地知道“它可能会掉下去”;你拼拼图时会知道哪块该往哪个角落放。

但AI没有这种感知。

比如让AI玩积木它可能知道“这块积木是正方形”但不知道“把它放在左边第三层会不会倒”。

这就像一个人在黑夜里走路人类能通过周围的环境(比如墙的位置、地面的高低)判断方向但如果这个人没有空间感知能力就会到处碰壁。

AI在物理世界里就像这个“摸黑走路”的人因为它没有空间智能所以搞不定需要三维判断的事儿比如抓球(得判断球的运动轨迹和自己手的位置关系)、拼图(得判断拼图块的形状和缺口的匹配度)。

四、未来机会1:智能眼镜+AR让AI“看见”物理世界 既然AI在物理世界里这么“笨”那有没有办法解决呢?有人提出了一个方案:智能眼镜+增强现实(AR)。

啥是AR增强现实?简单说就是你戴上眼镜后不仅能看到真实的世界还能看到虚拟的东西叠加在上面。

比如你戴AR眼镜看桌子能看到桌子上的杯子旁边弹出一个标签写着“这是陶瓷杯容量300ml”;你看远处的建筑能看到它的结构剖面图。

如果把AI和AR眼镜结合起来AI就能“看见”物理世界了。

比如你让AI帮你修自行车它通过AR眼镜“看到”自行车的零件然后在你眼前弹出维修步骤告诉你“先拆脚踏板再检查链条”。

这时候AI就不是只靠文字知识而是结合了现实世界的视觉信息决策就靠谱多了。

再比如让AI帮你整理房间它通过AR眼镜“看到”地上的书、桌上的杯子然后规划出“先把书放回书架再把杯子拿到厨房”的步骤。

这比只靠文字描述“房间里有书和杯子”要准确得多。

五、未来机会2:XR+AI打造“镜像世界”(虚拟和现实的融合) 除了AR眼镜还有个更高级的概念叫XR(扩展现实)它包括了AR、VR(虚拟现实)、MR(混合现实)等。

如果把AI和XR结合起来就能打造一个“镜像世界”——也就是和现实世界一模一样的虚拟世界。

小主这个章节后面还有哦请点击下一页继续阅读后面更精彩!。

本文地址大白话聊透人工智能AI的短板与未来机会为啥看书厉害抓个球却不行来源 http://www.adawod.com