错认成一片坦途,一个加速怼上去。
而且“反光”什么的也是交通事故发生后根据事故过程推断的,而不是AI直接得出的结论。
AI可不会告诉你,“我之所以撞上去,是因为大意了,没有闪。”
还有交通方面的人工智能,只能准确的识别到红绿灯,但是无法识别公交车上的广告海报,直接把海报上的明星框了起来,认为他们闯红灯。
还有某网站的智能识别图片直接把黑人识别成了大猩猩,被起诉了种族歧视,还差点引发零元购行动。
这种图像识别技术,它的工作原理就是将图案变成数字编码,再从这些数字编码中找到特征,查找“字典”,找到对应的解释然后显示出来。
实际上,计算机压根不知道自己识别的到底是黑人还是大猩猩,只是“字典”告诉它这个特征很大概率对应的是“大猩猩”这个单词。
绝大部分算法在本质上都是在玩概率的游戏,不同的只是在模型训练时需要的信息不同,以及计算出来对应“大猩猩”的判定方式不同。
当前所有被广泛应用的知名模型,都是通过矩阵运算训练数据来获得某种概率分布。
复杂模型的概率分布通常是高维的,这里又会引申出各种数学方法,但本质的思想依旧是想通过概率分布来描述训练数据的特征。
有了这些,就可以使用相同的概率分布去描述同类的数据,从而实现所谓的“识别”或“预测”。
实际上,并非模型真的像人类一样理解了什么是“大猩猩”,只是通过这种方式,模型能够大概率得把长得像某些特定目标的图片识别出
第74章 它不是强不强的问题(2/5)