张田勘:机器人写的论文在未来会被承认吗

sweetmiriam 2021-09-18 16:16 424 次浏览 赞 134

最新问答

  • 许小丹丹丹

    在过去的几年里,120多篇由计算机(机器人)自动生成的“论文”被提交给学术出版机构并得以发表。不久前,这些虚构的论文被一名法国计算机科学家检测出来,发现它们几乎全部来自中国。
    鉴定这120多篇论文是机器人写出来的人,是法国约瑟夫·傅立叶的计算机科学家西里
    尔·拉贝,他的研究课题之一便是学术论文鉴别。目前这些由机器人写出来的论文,被学术界异口同声地断定为学术造假或学术不端,因为这样的论文有一个明显的标志——尽管其格式规范、图文并茂,但这样的论文只不过是词汇和句子的无意义组合。
    不过,如果换一种角度来看待机器人写论文,似乎在未来,机器人写的论文也有可能被学术界承认,其标志就是,这样的论文只要不是胡说和毫无意义,而是有意义,就完全可能从造假过渡到真实的学术论文,并被承认。提出这个观点并非是为现阶段的机器人论文造假辩护,而是根据人类智力和计算机发展所能预测的一种可能。这种可能首先就要从人工智能的鼻祖图灵,和现在的一些研究人员谈起,比如揭露机器人论文造假的拉贝。
    拉贝本身就是一位机器人论文的者,其初衷是好玩。2010年,拉贝虚拟了一个叫做IkeAntkare的机器人作者,了102篇虚假论文来测试这些论文是否会被“谷歌学术”收录。结果这位机器人成功了,甚至IkeAntkare还成为世界上第21位被引用次数最高的“科学家”。
    拉贝创造IkeAntkare的动机是好玩或恶作剧,但他并非首创者,其创意还要追溯到图灵。1950年10月,图灵发表了题为《机器能思考吗?》的论文,首次提出人工智能的概念,并预测人工智能将有一天会得到人类的认可,并且与人类的智能并驾齐驱。他在后来还设计了一个称为“图灵试验”的,即把一个人与一台计算机分别隔离在不同的房间,由人来对计算机提问(事先提问者并不知道受测者是人还是计算机)。如果提问者分不清回答者是人还是机器,就证明计算机已具备人的智能。也就是说,人机对话是可能的。
    在后来的岁月中,很少有计算机通过人的提问,或很少有计算机被人混淆为人。但是,有个别试验却印证了图灵试验。1993年,美国波士顿计算机博物馆举行的一场图灵试验让人们震惊不已。主办方找了几个人作为测试者,把他们分别单独关进房间,让他们与其他房间的计算机或人进行交谈。测试结束后,一台名为“PC理疗三号”的计算机被一位测试者认为是一名,而另有两名测试者把一名误认为计算机。于是,人们认定,图灵试验得到某种程度的证实,人工(计算机)的智能可以达到人的智能。
    显然,拉贝的机器人写的论文和中国120多篇由机器人写的论文还处于低层次阶段,因为,它们只能欺骗计算机论文识别软件,如“谷歌学术”,还达不到骗过的境界。也因此,这样的机器人写的论文与波士顿计算机博物馆进行的图灵试验还差得远,因为后者骗过了。
    如果有一天,由组成的论文评委都不能鉴定出某篇或某些论文,是由机器人写的还是人写的,而且对机器人写的论文评判为“视角独特、论证充分、立意独到,结论可靠”大加赞誉之时,这样的论文会不会被承认呢?
    换句话说,当拥有人工智能机器被设计出在论文写作上,并非真的是要骗人或逗人玩,而是真的与人写的论文并驾齐驱,甚至超过人,而且会提出一般人的思维所想不到的点子、创意和结论之时,这样的论文能被接受吗?也许,这个问题太超前,但是,图灵试验的提出早就预测了有这么一天,人工智能真有可能赶上并超越人的智能,对此,人类是排斥,还是接受?
    实际上,如果真有这一天,这样的论文只要有意义、有观点、有,而且在实践中可以实施和作,就不仅应当被接受,而且要视为是一种划时代的创新,因为这还是证明了人的智能更高超。不过,由此也提出另一个问题,人类社会应用什么样的规矩和标准来规范这样的论文,以及如何制定规则来控制计算机形式和其他形式的人工智能。是继续遵循阿西莫夫的机器人三定律,还是增添新规则,甚至重新制定机器人定律?

    浏览 207赞 151时间 2024-03-28

张田勘:机器人写的论文在未来会被承认吗