深度学习正遍地开花 , 但它可能并非人工智能的终极方案 。 无论是学术界还是产业界 , 都在思考人工智能的下一步发展路径:类脑计算已悄然成为备受关注的“种子选手”之一 。
12月16日至17日 , 由北京未来芯片技术高精尖创新中心及清华大学微电子学研究所联合主办的“北京高精尖论坛暨2019未来芯片论坛”在清华大学举行 , 这次论坛上 , 类脑计算成为多位权威专家热议的人工智能研究方向 。
人工智能浪潮下的洋流
类脑计算又被称为神经形态计算(Neuromorphic Computing) 。 它不仅是学术会议关注的新热点 , 产业界也在探索之中 。
11月中旬 , 英特尔官网宣布了一则消息:埃森哲、空中客车、通用电气和日立公司加入英特尔神经形态研究共同体(INRC) , 该共同体目前已拥有超过75个成员机构 。
如果说 , 当下人工智能发展浪潮正波涛汹涌的话 , 类脑计算就是浪潮之下的洋流 。 虽不太引人注意 , 未来却有可能改变人工智能发展趋势 。
原因之一是 , 深度学习虽在语音识别、图像识别、自然语言理解等领域取得很大突破 , 并被广泛应用 , 但它需要大量的算力支撑 , 功耗也很高 。
“我们希望智能驾驶汽车的驾驶水平像司机一样 , 但现在显然还达不到 。 因为它对信息的智能判断和分析不够 , 功耗也非常高 。 ”清华大学微纳电子系教授吴华强告诉科技日报采访人员 , 人工智能算法训练中心在执行任务时动辄消耗电量几万瓦甚至几十万瓦 , 而人的大脑耗能却仅相当于20瓦左右 。
北京大学计算机科学技术系教授黄铁军也举了一个生动的例子:市场上应用深度学习技术的智能无人机已经十分灵巧 , 但从智能程度上看 , 却与一只苍蝇或蜻蜓相差甚远 , 尽管体积和功耗比后者高很多 。
追求模拟大脑的功能
到底什么是类脑计算 , 它又凭什么赢得学术界和产业界的宠爱?
“类脑计算从结构上追求设计出像生物神经网络那样的系统 , 从功能上追求模拟大脑的功能 , 从性能上追求大幅度超越生物大脑 , 也称神经形态计算 。 ”黄铁军接受科技日报采访人员采访时说 。
类脑计算试图模拟生物神经网络的结构和信息加工过程 。 它在软件层面的尝试之一是脉冲神经网络(SNN) 。
现在深度学习一般通过卷积神经网络(CNN)或递归神经网络(RNN)来实现 。 “CNN和RNN都属于人工神经网络 , 其中的人工神经元 , 至今仍在使用上世纪40年代时的模型 。 ”黄铁军说 , 虽然现在设计出的人工神经网络越来越大 , 也越来越复杂 , 但从根本上讲 , 其神经元模型没有太大改进 。
另一方面 , 在深度学习人工神经网络中 , 神经元之间的连接被称为权值 。 它们是人工神经网络的关键要素 。
而在脉冲神经网络中 , 神经元之间却是神经脉冲 , 信息的表达和处理通过神经脉冲发送来实现 。 就像我们的大脑中 , 有大量神经脉冲在传递和流转 。
黄铁军告诉采访人员 , 由于神经脉冲在不停地传递和流转 , 脉冲神经网络在表达和处理信息时 , 比深度学习的时间性更突出 , 更加适合进行高效的时空信息处理 。
推荐阅读
- 人工智能让百年前老电影成4K高清片
- vivo人工智能怎么唤醒
- 人工智能靠什么走向大众
- 人工智能算法帮助预测风暴等恶劣天气
- 人工智能复原古曲 既是传承也是创新
- 人工智能可助识别分析野生黑猩猩
- 人工智能会成为未来餐厅的标配吗
- 人工智能在游戏领域再进一步
- 院士邬贺铨:人工智能的魅力是“永远在路上”
- 人工智能:着力为高质量发展提供新动能