侵权投诉
订阅
纠错
加入自媒体

特斯拉创始人:人工智能危险过核武器!

  30%的说法是由英国人工智能之父阿兰·图灵提出的,这个标准现在愈发遭到人们质疑。图灵本人后来也否认自己曾为这项测试设定所谓标准,30%只是自己随口一说。说者无心听者有意,图灵去世后37年,美国科学家兼慈善家休·勒布纳把这项将这项测试办成了一年一届的赛事,这项赛事从1991年开始,直到2014年6月,主办方才宣布首台计算机通过测试。不过这次事件随后遭到媒体质疑,将其视为一次炒作。

  我对此到有些不同的看法。计算机之所以能够通过测试,依托于强大的数据库作为支撑。在接受测试之前,计算机已经有了大量的人类知识作为储备,以及人类为它精心编制的智能化程序。也就是说测试的实质是由作为人类的测试者提出问题,然后再由伪装成人类的计算机说出人类为其设定好的答案作为回答。许多质疑者认为,这项测试表面上看是计算机与人类之间的较量,实际上只是人与人的博弈。我倒认为,测试的实质和结果并不重要,重要的是它的的确确骗过了一些人。

  如果拿人类本身来举例,一个孩子编造的谎言很难骗过一个成年人。这是因为成年人比孩子的生活经历更为丰富,辨别真伪的能力自然也更强一些。这么一想,那个伪装成13岁男孩的计算机“尤金”之所以仅仅骗过了30%而不是更多的人,只是因为他的“经历”还不够丰富,也就是说如果他的数据储备足够强大,程序足够智能,让更多的人上当只是时间问题。而现在他已经以一个13岁孩子的身份成功骗过了30%的成年人,也就是说相比13岁的人类,尤金显然更为智慧。

  尽管目前人工智能还停留在对人类的拙劣模拟阶段,但随着人工智能技术的发展,有一天计算机将可以通过对性别、年龄、职业、生活习惯等方面的数据分析,进行智能化的模拟,好比现在的新闻网站会根据你的浏览习惯进行智能化的推荐。那时,计算机将可以模仿任何人,坑蒙拐骗等犯罪行为将成为司空见惯的事。

  二、超越人类智慧

<上一页  1  2  3  4  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号