分类: 中文版

现代语言 AI 智能正以前所未有的速度发展,因为创新和研究将推动开发人员创建最先进的语言模型,这些模型将继续向人类自然语言认知靠拢。在我们正在进行的关于语言 AI 智能和自然语言处理(NLP)的讨论中,我们讨论了这些技术扩展能力的方式,以及它们如何继续融入全球市场和行业。然而,开发人员正在积极创建更小的模型,与那些大型模型相比,这些模型更具成本效益和高效性。那么,这些较小的模型如何在理解和处理语言方面与较大的模型竞争呢?

 

本周,NLP 人工智能的进步再次让经常使用 DeepMind 的开发者离创建语言模型更近了一步,这种语言模型可以生成智能对话,在所有编程任务中都无法与人类对话区分。从威震天图灵模型的创造者那里,DeepMind 新的 NLP 模型被称为 Gopher,它拥有 2800 亿个参数,与其他更多语言的 AI 智能模型相比,它的计算模型要小得多,而 AI 智能模型通常依赖于纯粹的尺寸和能力来相互优化。具体而言,Gopher 模型在阅读理解、事实检查和语言偏见检测等领域表现突出,这些领域不仅对提高 NLP 通信的准确性,而且对在具有挑战性的主观知识领域的道德质量都很重要。更重要的是,据说该模型能够将著名的 GTP-3 模型所展示的 AI 智能与人类交流之间的准确度差距减半,标志着知识交流自动化的重大进步。

 

与已经很小的 Gopher 模型同时期,DeepMind 还引入了更小的 RETRO 模型,这是一个 70 亿参数的模型,是在十种语言的高质量数据集的精选集合上开发的。RETRO 在检测语言中的偏见和回答特定问题方面显示出了改进。不过,RETRO 的不同之处在于,它可以更快地从精确地针对特定知识领域定制的较小数据集中学习。具体而言,RETRO 使用外部记忆的概念,类似于备忘单,以非常小的计算压力快速制定熟悉、连贯的反应。简而言之,RETRO 不是无所不知,而是在需要时 “可以找到一切”。在 Gopher 和 RETRO 之间,DeepMind 正在推进一种 NLP 方法,该方法不依赖于拥有一种能够处理语言中任何内容的高级算法,而是一种能够充分了解一般情况的算法,并且能够在极具挑战性时获得额外帮助(如果需要)。所有这些造就了一种比大型模型训练更便宜、计算效率更高的语言 AI 智能,同时仍然能够与大型模型竞争,甚至超越大型模型。

 

正如我们在之前的文章中强调的,语言 AI 的这些实验性进展与语言服务中的语言 AI 有着显著的相似之处。值得注意的是,机器翻译后期编辑(MTPE)采用了与 DeepMind 在 RETRO 和 Gopher 中利用的相同的基本策略,将稀缺资源分配给需要他们关注的功能和用途。在 MTPE 中,需要真正被保护的是人本身,而不是计算机。随着 AI 智能在语言服务以外的行业不断发展,CSOFT 华也国际等 LSP 利用创新科技确保人工智能可以更好地发挥优势。从确保临床文档的质量和支持临床试验患者招募,到为大量文档需求提供准确、功能性的翻译,CSOFT 华也国际擅长提供优质的本地化服务方案。

 

要了解更多信息,请访问 csoftintl.com

[dqr_code size="120" bgcolor="#fff"]