我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
9月10日消息,2023年是人工智能的一年,从聊天机器人ChatGPT,到AI创作的歌曲参加格莱美奖,再到好莱坞的演员和编剧抗议大制片公司过度使用自动化技术,人工智能已无处不在。
IT之家注意到,近日美国南佛罗里达大学的一项研究表明,AI生成的文字内容可能已经无法与人类写的区分开来。研究作者邀请了一些语言学专家参与了这个项目,他们都是世界顶级语言学期刊的专家,但即使是这样的专业人士,也发现很难识别出AI写的内容。总的来说,他们只能正确区分出39%的情况。
南佛罗里达大学世界语言系的学者马修・凯斯勒与孟菲斯大学应用语言学助理教授J.埃利奥特・卡萨尔合作,让72名语言学专家审阅一系列研究摘要,并判断哪些是由人类写的,哪些是由AI生成的。具体来说,每位参与的专家必须检查四个写作样本。结果没有一个专家能够正确识别所有四个样本,有13%的专家全部答错了。
基于这些结果,研究作者不得不得出结论:大多数现代教授都无法区分学生自己写的内容和AI生成的内容。研究者推测,在不久的将来可能需要开发软件来帮助教授识别AI写的内容。
语言学专家们试图使用一些理由来判断写作样本,例如识别某些语言和风格特征。然而,最终这些方法基本上都失败了—— 导致整体正确识别率只有38.9%。
总之,凯斯勒和卡萨尔都得出结论:像ChatGPT这样的聊天机器人确实可以像大多数人类一样(甚至在某些情况下更好地)写出短篇文章。AI通常不会犯语法错误。然而,研究作者指出,在长篇写作方面,人类仍然占据优势。
“对于长文本,AI已经被证明会产生幻觉和虚构内容,使得更容易识别出它是由AI生成的。”凯斯勒总结说。
凯斯勒希望这项工作能够促进人们的讨论,关注在研究和教育领域使用AI时建立明确的道德和指导原则的迫切需要。该研究发表在《应用语言学研究方法》杂志上。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-09-10 23:45:02
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: