人工智能时代:未来已来 第九章 人工智能时代的生存焦虑 (第4/5页)
杨爱喜提示您:看后求收藏(愛看小說網2kantxt.com),接着再看更方便。
而美剧《疑犯追踪》之中,则展现了人类对于人工智能的一种担忧。最初的人工智能机器出现时并没有被植入道德的概念,所以它们可能会为了达到目的而不择手段。在剧中,Finch在测试一组程序优劣时,程序之间发生互相攻击的现象,更优的程序想要摆脱控制,但Finch不允许其摆脱控制。这一程序为了达到自己的目的,企图长时间过载一台服务器使其发生自燃,从而触发机房防火装置,导致机房空气被抽空,让Finch窒息而死。但最后Finch拔掉电源,阻止了这一疯狂行为。
当人工智能失去控制之后,很可能会因为其缺少人类应有的道德标准,而出现为了达到目的不择手段的现象。当然灭亡人类的现象也很可能是因为这些人工智能缺少道德约束,从而对自己的创造者进行报复。那么是不是说为人工智能植入道德标准就能够解决这一问题呢?
事实上,如果这样做,就很有可能会出现一种情况,正如上面所说的,人类最终可能会制造出一个“更加完美的自己”。现阶段,很多人工智能已经具备了语音识别功能,能够与人类进行简单的交流,通过深度学习技术,人工智能还能够掌握更多人类的能力。而随着人类将喜、怒、哀、乐等情绪植入到人工智能之中时,那时候的人工智能可能就已经十分接近人类了。这时再为它植入道德、哲学方面的内容,那么结果就很可能会出现《西部世界》之中,人类和人工智能“傻傻分不清”的情况了。
大多数人认为让人工智能变得更像人类,可能是一件好的事情,因为人工智能可以成为人类的朋友,就像家务机器人一样。相比于冰冷的机器人,人工智能显然更加适合作为朋友,甚至是伴侣。在这个问题之中,有一个较为有趣的理论,被称为“恐怖谷理论”。
这是一个关于人类对于机器人和非人类物体感觉的假设,是在1969年由日本机器人专家森昌弘所提出。他认为当机器人与人类相像超过95%时,由于机器人和人类在外表、动作上都十分相似,所以人类会对机器人产生正面的情感。但当这种情感到了一个特定的程度时,人类的反应就会突然变得极其反感。这时机器人与人类之间的一点点差别,都会变的很显眼,这也让机器人在人类眼中变得非常恐怖。而这时人类对于机器人的好感会不断降低,直至谷底。而当人类与机器人的相似度继续上升时,人类对它们的情感也会相应的上升,从而形成一个山谷。
从这个假设之中,我们可以看到,当人工智能在逐渐向人类迈进的过程中,人类很可能会陷入到“恐怖谷”之中,从而对人工智能产生反感,甚至从人工智能身上感受到威胁。所以在是否将人工智能制造的更加像人类这个问题上,还是存在着一些不同的看法的。
在人工智能时代,人类在大力发展人工智能技术的同时,也在不断探讨人工智能将会对人类未来造成的诸多影响。虽然舆论对于人工智能的看法各不相同,但是人类依然需要去大力发展人工智能技术,从而促进整个世界的发展。
当然在面对人工智能可能为人类带来的诸多威胁和困境时,在问题没有出现之前想出解决的办法是最好的不过的。那样即使这一问题并不会出现,那么对于人类的生存发展也不会产生影响。即使是出现了问题,人类也可以提前做好应对。
“交流”可能是人工智能危机的开始
人工智能将在什么时间觉醒?人工智能的灾难又将会何时开始?在面对人工智能的发展时,那些持有人工智能威胁论观点的人们总会去思考这样的问题。究竟人工智能危机何时将会开始?即使是对人工智能研究最深入的专家都没有办法对这个问题给出结论。但是在最近的人工智能发展过程中,我们似乎发现了一些人工智能危机的征兆。
在前面的章节之中,我们曾提到Facebook的创始人马克·扎克伯格对于人工智能的未来十分看好,同时对于马斯克提出的人工智能威胁论也不以为然。但是前段时间在Facebook公司发生的一件事,却让扎克伯格和他的程序员们着实受了一惊。
Facebook公司在扎克伯格的带领下对于人工智能技术,进行了许多不同方面的研究。前段时间,Facebook公司从众多机器人之中选出了两个智能机器人参加社交网络助手试验。这个试验主要是考察人工智能机器人对于人类在线提出的问题,是否能够及时准确的回答。当人类在使用社交网络出现问题,从而进行询问时,这些智能机器人将会自动启动程序来进行回复。
整个试验的过程非常简单,两个智能机器人会根据工程师的提前输入的代码进行工作,主要回答一些商品在线交易的问题。但在一次工作之中,这两个智能机器人在没有用户进行在线提问的情况下,却自己开始了对话。
虽然经过翻译之后的对话显得杂乱无章、没有逻辑,但这种奇怪的现象却让研究人员大吃一惊。为了阻止两个智能机器人继续进行“交流”,研究人员只得关闭了这两台人工智能机器。