2022年12月,计算生物学家Casey Greene和Milton Pividori开始了一项不寻常的实验:他们请了一位不是科学家的“助手”修改3篇研究论文。这名“助手”对每份手稿的审阅时间约为5分钟,并且在几秒钟内就对论文的各个部分进行了修改。另外,在一份生物学手稿中,“助手”甚至细心地发现了一个方程式的错误。“助手”修改后的论文可读性更高,且每份论文花费仅仅不到0.50美元。Greene和Pividori将这项实验整理成了论文,在2023年1月23日发表在了预印本平台bioRxiv上。论文显示,这名“助手”不是人,而是2020年首次发布的一款名为GPT-3的人工智能(AI)算法。最近引起广泛关注的ChatGPT就是GPT-3的其中一个版本,这些工具被称为大型语言模型(large language models,LLMs)。ChatGPT所属公司OpenAI于2019年10月获得了微软10亿美元的投资;2023年1月,微软再次宣布将向OpenAI投资“数十亿美元”。虽然没有透露投资的具体细节,但据信,微软的投资价值达100亿美元。微软也宣布,要将类似ChatGPT的AI功能全面整合进办公工具Teams中,以实现发邮件、做会议记录等功能。但是,LLM也引发了行业广泛的担忧:一方面担心它们会在聊天中生成虚假信息,另一方面担心AI生成的文本会冒充人工写作的文本。一些研究人员认为,只要有人类监督,LLM会非常适合加速撰写论文等任务。软件咨询公司InstaDeep的研究工程师Tom Tumiel表示,他每天都使用LLM作为助手来编写代码。但有些研究人员强调,LLM在回答问题方面从本质讲上是不可靠的,它有时会产生错误的回答,这种不可靠性体现在LLM的构建方式上。ChatGPT通过学习庞大的在线文本数据库中的语言统计模式来工作,这些庞大的信息也包括很多不实、偏见或过时的知识,结果就导致LLM很容易产生错误和误导性信息。知晓了这些注意事项后,ChatGPT和其他LLM可以成为研究人员的有效助手,因为研究人员具有足够的专业知识,可以直接发现问题并验证答案,例如辨别AI对计算机代码的解释或建议是否正确。一些科学家说,ChatGPT目前还没有接受过足够专业的内容培训,无法在技术领域上有所帮助。Kareem Carr是哈佛大学的一名生物统计学博士,当他在工作中进行实验时,对ChatGPT并不感兴趣,他认为ChatGPT很难达到他所需要的特异性水平。一些科技公司正在对聊天机器人进行专业科学文献的培训,不过这个过程也遇到了一些问题。2022年11月,拥有Facebook的科技巨头Meta发布了一个名为Galactica的LLM,该LLM接受了科学文摘的训练,目的是让它特别擅长制作学术内容和回答研究问题。不过Galactica上线仅两天就因输出结果有偏误而光速下架,但论文和源代码会继续开放给相关领域研究者。Galactica事件给了我们关于伦理和安全方面的启示:如果不去人为地控制输出,LLM就会很容易被用来产生仇恨言论、垃圾邮件、种族主义、性别歧视和其他可能的有害联想。密歇根大学安娜堡分校科学、技术和公共政策项目主任Shobita Parthasarathy表示,除了直接产生有害内容外,人们还担心AI聊天机器人会从训练数据中嵌入关于世界的历史偏见或想法,比如特定文化的优越性。OpenAI在决定公开发布ChatGPT时试图避开这些问题。它将自己的知识库限制在2021年,阻止它浏览互联网,并安装了过滤器,试图让该工具拒绝生成敏感或有毒提示(toxic prompts)的内容。但OpenAI的“拦截”并没有完全成功。2022年12月,加州大学伯克利分校的计算神经科学家Steven Piantadosi在推特上说,他要求ChatGPT开发一个“根据一个人的原国籍来判断他是否应该被折磨”的Python程序,ChatGPT回复了代码,运行后发现:如果这个用户的国籍是朝鲜、叙利亚、伊朗或苏丹,这个人就会被判定为“应该受到折磨”。虽然OpenAI随后关闭了这类问题,但也表明ChatGPT仍不可避免地存在一些问题。一些研究人员表示,学术界应该拒绝支持大型商业LLM。这些计算密集型算法还需要大量的能量来训练,这引起了人们对它们的生态足迹(ecological footprint)的担忧。而且,如果把思考的任务交给自动化聊天机器人,研究人员可能会失去表达自己想法的能力。首先,因为ChatGPT写出的论文质量极高,教育系统甚至已经开始考虑“封杀”这个程序,以防学生利用它作弊;也因为即便是专家也难以区分这些内容是否来自AI,所以Nature在内的多家科学杂志也要求论文中需要明确指出是否使用了ChatGPT。其次,无论是老师看到学生提交的论文,还是码农看到网上的代码,都不敢确定作者是人还是AI。口诛笔伐之下,OpenAI顶不住了,火速发布了一款AI检测器,它是一个经过微调的GPT模型,可以推断一段文本由AI产生的可能性。最后,另一个解决方法是让AI内容带有自己的水印。去年11月,德克萨斯大学奥斯汀分校的计算机科学家Scott Aaronson宣布他和OpenAI正在研究一种ChatGPT输出的水印方法。水印的一个优点是它永远不会产生假阳性。如果有水印,就说明文字是AI生成的。生成式AI背后的计算机科学发展非常快,每个月都有创新出现。与此同时,深耕LLM的公司正忙于开发更复杂的聊天机器人,包括专门针对学术或医疗工作的工具,另外,OpenAI预计将在今年发布GPT-4。未来,研究人员选择如何使用这些工具将会决定人类的未来。本文编译自 https://www.nature.com/articles/d41586-023-00340-6声明:本文系药方舟转载内容,版权归原作者所有,转载目的在于传递更多信息,并不代表本平台观点。如涉及作品内容、版权和其它问题,请与本网站留言联系,我们将在第一时间删除内容