让算法具备人类写作能力,一直是OpenAI人工智能研究实验室追求的理想。其最新成果,语言生成模型GPT-3,已经能够生成难以辨别的虚假文章,甚至成功欺骗了黑客新闻的发布者,使其成为热门内容。
这一帖子提出了这样的观点:要想做好事情,或许我们不必过于深思熟虑。这看似与常理相悖,但我相信,有时过多思考反而会阻碍我们的创造力。
OpenAI之所以能够开发出如此高效的算法,是因为它具备访问庞大计算资源和数据的能力,同时,该算法的规模远超以往的所有模型:GPT-3的最大版本拥有1750亿个参数,而GPT-2仅有15亿个参数。这种庞大的参数量使算法能够进行更精准的预测。
尽管OpenAI曾经公开过其算法,但这一次却选择让GPT-3保持神秘。该公司表示,由于GPT-3的规模超出了大多数用户的处理能力,收取费用将为OpenAI带来利润。
在过去的一年中,OpenAI进行了结构性改革,以吸引更多投资者。它放弃了限制利润的非盈利模式,使得如果公司获利,投资者也能获得相应的回报。此外,OpenAI还与微软达成了一项价值10亿美元的合作协议,开启了两家公司之间的深度合作,同时允许OpenAI优先使用微软的云计算平台。
研究人员对OpenAI不公开算法表示质疑,认为这违背了基本的科学原则,并使得验证该公司声明的真实性变得更加困难。
FACEbook人工智能研究的联合董事及FACEbook蒙特利尔人工智能研究实验室负责人乔埃尔·皮诺在一封电子邮件中指出:我对目前有关GPT-2/GPT-3和AlphaGo等不共享代码的争论持怀疑态度。在人工智能领域,这种情况屡见不鲜。
GPT-3的核心是一个极为强大的英语写作工具。其最重要的特点在于规模,通过分析45万亿字节的数据,GPT-3掌握了写作技巧。据报道,这一训练过程在云计算平台上耗费了数百万美元,涵盖了人类数以亿计的书写组合。
