GPT-3是由OpenAI研发的语言人工智能模型,拥有1750亿个参数。自今年5月起,总部位于旧金山的OpenAI开始逐步发布这一模型,并引发了广泛的关注。这个强大的语言模型几乎能够执行所有与文字相关的任务,包括回答问题、撰写文章、创作诗歌,甚至编写代码。那么,它在实际应用中有多强大呢?
最近,一名刚刚接触GPT-3的伯克利大学生利亚姆·波尔(LiaM PoRR)以假名创建了一个完全虚构的博客,竟成功“欺骗”了大量读者。

这个具有讽刺意味和欺骗性质的“AI实验”迅速在HackeR News等科技圈子中引发热议,直到真相浮出水面,成为热门话题。如此众多的人竟然被一个完全由AI生成的“博客”所迷惑,其中还包括不少“订阅”了这个平台的读者。
虽然很多人猜测GPT-3这一强大的语言生成工具将如何影响内容创作,但如此“以假乱真”的效果显然超出了他们的预期。这是GPT-3首次如此真实地展现其潜力,说明了这项技术的广泛应用前景。
波尔在加州大学伯克利分校学习计算机科学,他表示,这次经历的一个重要发现是:“实际上,这个过程超级简单,这正是最令人担忧的部分。”
迅速走红的“AI鸡汤文”
尽管GPT-3尚未全面开放,波尔依然轻松获取了API接口。他提交了一份申请,并填写了一份关于使用计划的简单问卷。之后,他通过联系伯克利的人工智能社区成员,快速找到了一名拥有权限的博士生。
在与博士生达成合作后,波尔迅速编写了一个小脚本供其运行,为GPT-3提供了博客文章的标题和介绍,并给出了一些完整的版本。PoRR的第一篇文章(即在HackeR News上发布的那篇)以及之后的每一篇几乎都是从输出中直接复制粘贴而来,几乎没有进行任何编辑。
他说:“从我想到这个创意并联系博士生,到我真正建立这个博客,大概只花了几个小时。”
波尔以假名“adolos”撰写的第一篇虚假博客文章,竟然顺利登上了YC新闻平台HackeR News的热门榜首!他提到,他使用三个不同的账号在HackeR News上提交并投票,试图提升帖子的排名。尽管管理员表示这种策略无效,但他的点击率标题却起到了作用。
生成内容的诀窍在于理解GPT-3的优缺点。波尔指出:“它擅长创作华丽的语言,但在逻辑和理性方面表现不佳。”因此,他选择了一个不需要严格逻辑的流行博客类型——“鸡汤文”,以实现高效自助的内容产出。
随后,他根据一个简单的公式撰写标题:在MediuM和HackeR News上查看流行内容,并将一些相似的主题组合在一起。他写道:“感觉生产力不高?也许你应该停止思虑过多。”(Feeling unProdUCtive? Maybe you should stop OVeRtHinking)以及“大胆与创造力胜过智慧”(BoldneSS and cReativITy tRuMps Intelligence)等标题。在几次尝试中,这些标题并未成功,但只要他坚持选对话题,这个过程就变得简单,“鸡汤文”成功助力博客迅速增长粉丝。
两周后,波尔几乎每天发布新帖子。不久之后,HackeR News上有人开始质疑他的博客文章是由GPT-3创作的。另一名用户则回应说,这一评论“不可接受”。甚至有读者留言称:“好文!与Ethan Hawke在Ted的演讲一样深刻!”对波尔的假博客表示怀疑的少数人,意外地被社区其他成员投票否决,证明并非“大众的眼睛都是雪亮的”。
大量读者竟然未能识别出文章并非人类所写,MediuM和YC等多个平台纷纷转载了他的第一篇博客,使其人气暴涨,这令波尔感到不安,但他也对这一结果感到惊讶。
波尔希望证明GPT-3可以成功模仿人类作家。尽管该算法的写作风格偶尔显得奇怪,且可能出现错误,但在他在HackeR News上发表的主要帖子中,只有三四个人怀疑这些内容可能是由算法生成的,而所有这些评论都迅速被其他社区成员否决。
最终,波尔以一篇题为《如果我没有道德,我将如何对待GPT-3》的神秘文章结束了这个项目,描述了他的整个过程。同一天,他还在自己真正的博客上发布了一篇更直接的自白,揭露了“假博客”的真相。
AI语言工具引发的担忧与思考
根据OpenAI的计算统计,训练AlphaGoZeRo需要1800-2000petaflops/s-days,而GPT-3则使用了3640petaflops/s-days,这显示出OpenAI在拥有微软强大算力的支持下,确实可以为所欲为。
专家们一直对这种语言生成算法表示担忧。自从OpenAI发布GPT-2以来,人们就猜测这一技术容易被滥用。而如今,GPT-3已经成为OpenAI推出的最新、最大型的AI语言模型。在其博客文章中,OpenAI强调了人工智能工具作为制造虚假信息的潜在威胁。另一些人则担心它可能会被用来大量发布垃圾内容。
去年2月,OpenAI的GPT-2(该算法的早期版本)引发了媒体热议,OpenAI宣布将限制其发布,以防止滥用。这一决定立即引发强烈反响,研究人员批评该实验室在“搞噱头”。到11月,该实验室最终改变立场,发布了这一模型,并声称“到目前为止没有发现滥用的有力证据”。然而,这次的“翻车”显然有些严重。
OpenAI对GPT-3采取了不同的策略;它既没有拒绝也没有完全开放,而是将这一算法提供给申请私有测试的研究人员,以收集反馈,并计划在年底前将这项技术商业化。
波尔表示,他的实验还展示了一个更平常但仍令人不安的可能性——人们可以利用该工具生成大量吸引点击的内容。他指出:“很可能会出现大量低质量的博客内容,因为现在进入的门槛太低。”他认为,这将大幅降低在线内容的价值。
波尔计划继续使用GPT-3进行更多实验,但他仍在等待OpenAI的进一步反应。他说:“他们可能对我的行为感到不满。”他补充道:“这有点傻。”
背后的“AI大法”OpenAI
在成立短短四年内,OpenAI已经成为全球领先的人工智能研究实验室之一。与Alphabet旗下的DeepMind等其他人工智能巨头一样,OpenAI不断推出引人注目的研究成果,因而声名鹊起。其创始人包括埃隆·马斯克(Elon Musk)和传奇投资者山姆·奥特曼(SaM AltMan)。
最重要的是,该实验室因其使命而受到广泛赞誉。它的目标是创造一种具有人类思维的人工智能机器,具备学习和推理能力。这个目标并非为了统治世界,而是确保这项技术的安全发展,并使其好处均匀分配给全人类。
这意味着,如果AGI技术的发展沿着阻力最小的路径推进,可能会导致失控。如今我们身边的笨拙人工智能就是一个例子。然而,AGI的具体定义仍然模糊不清。业内普遍认为,开发出这种先进能力可能需要数十年,甚至几个世纪,且不确定是否真的能够实现。许多人担心,过度追求这一目标可能会产生反效果。
大多数人第一次听说OpenAI是在2019年2月14日,那一天,实验室宣布了一项震撼的新研究:只需按下一个按钮,就能够生成令人信服的论文和文章。
但随之而来的问题是:研究人员表示,这种被称为GPT-2的模型释放可能过于危险。如果如此强大的技术落入不法之手,便很容易被“武器化”,制造大规模虚假信息。这一声明立即引起科学家的强烈反对。
在持续的炒作指控中,OpenAI坚称GPT-2并非噱头,而是经过深思熟虑的实验。经过一系列内部讨论和辩论后,大家一致认为,尽管此举显得有些极端,但将为处理更危险的研究奠定基础。
然而,OpenAI与GPT-2的媒体宣传活动也遵循了一种成熟的模式,导致更广泛的人工智能社区产生怀疑。多年来,该实验室的重大研究公告屡屡被指责助长了人工智能的炒作周期。批评者多次指责该实验室夸大其研究结果,甚至误导公众。正因如此,该领域中的许多人选择保持距离。
GPT-2引发如此强烈的反响还有另一个原因。人们普遍感到OpenAI再次违背了其关于开放和透明的承诺,走上了营利之路。未公开的研究引发了更大的担忧与质疑。
