下面说一个有趣的例子 。 看这张图的时候 , 你和电脑都可以分辨出 , 明暗不同的色块交替出现 , 组成一个长方形:
目前是打成平手 。 但如果你去掉黑色部分的遮挡 , 把整个图像展现出来:
你可以准确描述出各种不透明或半透明的圆柱体、薄片和三维转角 , 电脑则一败涂地 。 它会描述它看到的:各种明暗不同的二维图形(其实的确也只有这些) , 而你的大脑进行了一系列“骚操作”来解释图片所隐含的深度效果、阴影交叠和照明光线 。
再比如下面的图片 , 电脑看到的是一个二维的黑白灰拼贴画 , 而你一看就知道这是什么:一块纯黑色的石头 。
刚才提到的还只是处理静止的信息 。 为了达到人类的智能水平 , 计算机得理解一个微妙的面部表情是友好、宽慰、满足还是高兴 , 以及为什么“新时代”令人振奋而“小时代”令人脸酸 。
那如何才能做到呢?
创建通用人工智能的第一个关键:提高计算能力
要使通用人工智能成为可能 , 必须提高计算机的硬件能力 。 如果一个人工智能系统要像大脑一样智能 , 必须具有相当于大脑的原始计算能力 。
表达这种能力的一种方法是大脑每秒能够处理的总计算量(calculations per second, cps) , 库兹韦尔用大脑中一个部分的计算能力和这个部分在整个大脑中的重量占比估计出一个数字 , 这个数字在一亿亿(1016)这个量级 。 天河二号超级计算机实际上已经超过了这个数字 , 但天河二号占地720平方米 , 耗电24兆瓦(大脑只有20瓦) , 造价3.9亿美元 , 不适于广泛使用 。
摩尔定律是一条经过历史验证的可靠规则 , 即计算能力的上限大约每两年翻一番 , 这意味着计算机硬件的进步 , 就像人类历史的进步一样呈指数增长 。
库兹韦尔提出用钱来考虑计算机的发展状况:看看用1000美元能买多少计算能力 。 当这个数字达到10万亿cps时 , 意味着通用人工智能将走入千家万户 , 成为生活的一部分 。 上面这张图是随着时间推移 , 用1000美元能买到的计算能力的变化 。
因此 , 目前1000美元买到的电脑可以打败老鼠的大脑 , 水平大约是人类的千分之一 。 按照这个速度 , 2025年之前我们就能买得起一台与人类大脑相媲美的电脑 。
所以在硬件方面 , 通用人工智能所需要的计算能力已经可以实现了 , 并且我们将有望在几年内用上实惠又普遍的通用人工智能级别的硬件 。
接下来的问题是:如何给这些计算能力赋予人的智慧?
创建通用人工智能的第二个关键:让它变聪明
这才是棘手的部分 。 谁也不知道怎样让它变聪明 。 我们还在争论的是如何让电脑明白什么是狗 , 如何认出潦草的“B” , 或者理解一部电影 。 这有一堆看起来挺牵强 , 但或许能行得通的策略:
1)剽窃大脑
这就像是科学家们在努力研究邻座的那个孩子为啥那么聪明 。 即便学习再努力 , 他们也考不到和那个孩子一样高的成绩 。 于是他们最终决定:“去他的 , 我要把那个孩子的答案复制过来!”这种想法似乎很自然:我们怎么也造不出如此复杂的计算机 , 但我们的脑袋里就装着完美的原型 。
科学界正在努力对大脑进行逆向工程 , 以求弄清楚大脑这么棒的东西究竟是如何进化出来的 。 乐观的估计认为 , 到2030年我们就可以做到这一点 。 到那时 , 我们就会知道大脑的运作为何如此强大和高效 , 从中汲取灵感 , 窃取它的创新能力 。 模拟大脑的计算机体系之一是人工神经网络:晶体管作为“神经元” , 通过输入和输出相互连接 。 起初它像婴儿的大脑一样一片空白 , 它“学习”的方式是尝试完成一项任务 , 比如手写识别 。 刚开始 , 它的神经触发和最终的猜测是随机的 , 当它被告知“猜对了”时 , 这些触发通道中的晶体管连接会被加强 , 反之会被削弱 。 经过大量的试验和反馈后 , 网络已经自己形成了智能神经通路 , 机器已经针对这项任务进行了优化 。 大脑的学习方式与之有些相像 , 但更复杂 。 随着脑科学研究的深入 , 我们将发现巧妙利用神经回路的新方法 。
推荐阅读
- 如何防止狗咬
- 柚子放久了会不会干
- 山庄名字怎么取
- 袋鼠会打地洞吗
- 房子没满5年可以卖吗从哪天 房子没满5年可以卖吗
- 虾分公母吗
- Windows8.1电脑关机变重启如何解决?
- 八月十五的月亮从哪个方向升起
- 鸵鸟会不会飞
- 给狗抓破会不会有事
