说得太好宋教授,那能否请您用比较浅显易懂语言向观众们介绍下这套系统工作原理呢。
宋教授:有点难,试试吧。大家知道,人工智能发展其中个重要方向就是让机器模拟人类大脑思考过程,而最关键第步就是让机器学会像人样接受信息。人类有非常复杂感官系统,但信息最主要输入方式还是视觉,这就涉及两大领域识别:文字和图像。目前在浅层感知领域,语音识别、文本分词、人脸识别等已经比较成熟,但从浅层感知到特定语义组合映射,比如从动作姿态来分辨张全家福中不同成员之间关系,对首诗歌里情感指向进行分类,目前还只能在限定领域通过大量训练来实现过得去效果。至于像人类那样复杂认知能力,机器其实还处于非常早期阶段,大家可以看这张图。
(屏幕上出现4乘4图片矩阵,每张图都是关于猫,在不同环境下、从不同角度拍摄不同种类猫。)
宋教授:啊,这是女儿挑照片。对于人类来说,即便是个小孩,只要他见过猫,不管是大猫小猫,黑猫白猫,猫头猫尾,他都能够分辨出来。但对于机器则不是这样。
(16张图中13张都被打上红叉,只剩下3张猫咪头部正面特写,萌态可掬。)
宋教授:之前们做机器图像识别,无法像人样从事物不同状态中提取出某种底层不变性。抱歉又要拿猫举例子,只猫胖瘦,掉毛生病,或者给它穿戴上各种装饰品,它打个呵欠、发怒、舔舌头,它都是同只猫。而对于机器来说,图像尺寸、背景、光照、位移、旋转、畸变、遮挡……都会影响它判断,它只能根据既定算法进行有限层级映射,而无法模仿人脑通过多层神经网络进行分层递阶多粒度计算……
主持人:抱歉打断您下,这部分内容或许对于欠缺背景知识们来说有点难以理解,那您发明CATNIP系统是如何解决这个问题呢?
宋教授面露尴尬:不好意思不小心就说多。确切地说,们只脚才刚刚跨过门槛,离真正解决问题还早着呢,这个系统也只是整个大计划中个前驱项目。们灵感其实来自语义分析,大家知道,信息意义其实并不在于信息本身,而存在于其结构中,就像文本意义存在于上下文,图像意义存在于时空结构之中。们能否通过索引对象存在于整个时空结构中信息来帮助机器识别对象,这是整个项目灵感源起。
主持人:问个外行话,如果机器都无法准确识别对象,怎能去寻找它存在于,嗯,所谓时空结构中信息呢?
宋教授:你这个问题提得非常好。就像照片里
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。