真伪难辨的“智能聊天”时代-中国讯息网

真伪难辨的“智能聊天”时代

作者:刘家明 阅读量:6818 发布时间:2023-01-10 12:28:27

所以如何平衡ChatGPT因滥用而产生的负面影响,以及它的智能聊天、协助人类解决文字语言的沟通交流和知识搜索、心理疗愈等的正面作用,将决定这科技的后续研发和推展。 

去年在世界人工智能领域发生了两件大事,提高了人们对“智能聊天机器人”的认知度,也带出了很多隐忧。一方面是担心这还未成熟的科技会不会被滥用,另一方面是担心这科技的发展方向对未来社会的影响。

首先是去年年中,谷歌开发团队的一位资深成员,发文说在测试谷歌的智能聊天机器人LaMDA(对话应用模式Language Model for Dialogue Applications的头文字拼成)时,肯定了聊天机器人有人类的“知觉和自我意识”,而且LaMDA还“认为”自已是人。这篇文章震惊了全球,也违反了谷歌发展这产品时承诺的道德规范。谷歌于是立刻辟谣熄火,有关员工也“被休假”。虽然如此,各种人类将被机器人取代的阴谋论再次开始流传。

改作文卷子老师有难了

到了年底,另一个人工智能研发大咖OpenAI推出了一个叫ChatGPT的聊天机器人应用程序,几天内就吸引了全球超过百万人注册和应用,顿时成为“智能聊天网红”。这智能聊天机器人更加厉害,它可以与人做“有深度”的聊天,它无所不知,还会做数学题、写电脑代码,甚至可以代写文章,做论文交功课等。支撑这聊天机器人的运算和数据资源异常庞大(费用非常高),不过目前的试用版是免费的。虽然研发公司说这“雏形”还有很多限制,但在学术界已算是颗震撼弹,掀起了巨波。

笔者故意从找碴和忽悠的角度与智能网红聊了一会儿,发现正如开发公司所言,它目前的“知识水平”只是“到2021年为止的网络字汇”,所以在2021年之后出现的东西,它都不能有效应付。因为它只根据运算模式,把“在网络里搜查到的、发生频率最高和最接近问卷的字汇”组装和凑合成美句、美文,所以有时是在胡扯。它目前很“驯服”而不会与问者争论,也很“虚心”学习。例如它先胡扯地列出了李白的《静夜思》有九句,但在笔者坚持两次后,它同意只有五句,且最后一句是笔者的胡扯“皎皎日如月”!因为网络里不可能出现过所有可能的数学题,所以一题简单的算术题也可能让它翻车。不过在经过几段正经八百的“对话”后,它真的能够根据要求,生成水准不错的文章,批改作文卷子的老师这次真的有难了。

其实很多新科技,往往在未成熟和未被完善之际,就会先被滥用,所谓“未见其利,先见其害”。如果花了太多资源在防止被滥用上,一定会阻碍原应用的研发。有时新科技会先被“污名化”,用户在应用时,对科技的信心和接受度就会先打折扣。所以如何平衡ChatGPT因滥用而产生的负面影响,以及它的智能聊天、协助人类解决文字语言的沟通交流和知识搜索、心理疗愈等的正面作用,将决定这科技的后续研发和推展。

在这个什么都是“人工智能”的时代,资讯和媒体受到的冲击最大。市面上早已有了“从文产图”的智能软件如DALL-E,也有“从图产文”的如CLIP,它们强化了创新工业和图片搜寻,却也被用来制造假新闻。现在又有了“从字产文”的ChatGPT,不难想象在有心人士的滥用下,全世界将会充满难辨真伪的信息和资料。

这是因为目前如ChatGPT这类的语言科技和运算,不考证信息来源和正确性,只是在网络里用统计“众多取决”,正所谓三人成虎、曾参杀人。所以什么科学和逻辑都不重要,只要有意地在不同渠道不断重复某种东西,它就会成为主流知识和资讯了。

简单打个比方,与ChapGPT聊天,就如在咖啡店里与一桌坐满了有各类知识背景的“安哥”聊天。他们对你有问必答,却不让你知道他们的推论来自何方。他们的答案有时能给你灵感,让你有创新空间,也偶有佳作让专业人士也折服。最重要的是,(目前的游戏规则)他们的答案就算是胡扯,也都是正面的、善意的。至于答案的真伪,就自己好自为之了!

责任编辑:10001
共1条数据,当前1/1页

喜欢看“真伪难辨的“智能聊天”时代”的人也喜欢

评论