当前位置:首页 期刊杂志

与AI聊天,也要有技巧

时间:2024-04-24

张帅

聊天是一门艺术,更是一项技能。有时,通过高效率且有技巧式的聊天,往往会带来一些意想不到收获,人们亲切地称为“白嫖”。没错,只要功夫深,“白嫖”质量就更佳。世上也没有任何事情会逾越过沟通,而直达结果。这也是人工智能解决方案的科学家们,为什么会热衷于以对话的形式,来解决用户当前的问题。

Google在今年的I/O大会上,发布了一款了新模型LaMDA。其功能与现今任务型AI的逻辑大体一致,但是却又是AI发展的一个重要节点。Google和Alphabet首席执行官Sundar Pichai对LaMDA看法是:“它旨在与任何主题进行对话。”

进入21世纪,人工智能跨过了答非所问的阶段,更离谱的是不同消费级设备,所配备的AI不僅会像打了鸡血一样等着发问,更会不等发问突然出现,给用户一个惊喜。简单来说现今大部分AI还缺少“灵魂”的注入,只是兴奋地在为用户搜索想要知道的答案罢了。

LaMDA则不一样,如果投入市场的话,我们或许可以将其想象为在与AI讨论一个问题的时,能够根据下一个提问而跳过当前问题,并精准给到下一个问题的答案,并且不会出现“今天几号?”,”怎么摸鱼?”等这样基本逻辑不搭的问题。虽然Google的模型与市场的产品并没太大区别,但Google好歹是为AI注入了一丝灵魂,推着行业迈了一小步。

这是因为该训练模型有神经网络体系结构(类似于BERT和GPT-3等语言模型),以及在培训期间,学习了如何将开放式对话与其它形式的语言区分开的细微差别。Pichai说,LaMDA从其训练数据中综合了这些概念,所以可以做出明智的回应,使对话保持开放性。“没有对话两次都走同一条路,并且该模型可以进行对话而无需重新训练。 ”Pichai如是说道。

虽然LaMDA的出现,使人们与机器人交谈不会再变的棘手,不会进入死胡同,是AI技术进步的表现。但是Google本身也及其在意AI的原则,即AI可能会与所有工具一样,也可能被滥用。在Google博客《LaMDA:我们突破性的对话技术》一文中,明确的指出通过内化偏见,可能会引起仇恨言论或复制具有误导性的信息,即使经过审查所训练的语言,也仍然存在被加以滥用的可能。

LaMDA是所谓的大型语言模型(LLM),这是一种在大量文本数据上经过训练的深度学习算法。但正因如此,所以专家认为可能会导致种族主义、性别观点和侮辱性观念的模型加以嵌入。并因传播和自动学习的、引入等原因,就很容易使人们误以为是人为进行了观点的输出。

好在,Google做出了很多的努力,以确保LaMDA在公平性、准确性和隐私性方面的高标准。“在创建诸如LaMDA之类的技术时,我们的首要任务是确保我们将此类风险降到最低。我们多年来一直在研究和开发这些技术,因此对机器学习模型所涉及的问题(例如不公平的偏见)非常熟悉。”

与此同时,全球有500多个研究人员竞相的了解这些模型的功能和局限性。而在Huggingface(一家采用“开放科学”方法来理解自然语言处理(NLP)的初创公司)领导的BigScience项目下,他们寻求建立一个开源LLM,该LLM将成为科学界的共享资源。目标是在单个重点年度内获得尽可能多的奖学金。他们的中心问题是:应如何开发LLM以及何时部署LLM才能获得其收益而又不会造成有害后果?

Huggingface首席科学官托马斯·沃尔夫(Thomas Wolf)说:“我们无法真正停止对每个人都想进行培训的大型语言模型的这种疯狂”。“但是我们能做的是尝试朝着最终更有利的方向轻推这一点。”

写在最后

如果Google会将LaMDA整合到现有的产品中,那么这些产品可能会对用户变得更加有用。例如,LaMDA可以通过交谈的形式,解决儿童和老年人等群体的交互方式;在汽车的内置中,可以更加便捷地更改目的地,或者查询路况;除此之外,也将理解不同词汇的意义及应用等等。这是To C用户搜索行为方式的一次转变,当然也可能是To B企业调整内容和产品的一个方向。

但这并不是最终的形态,Google也为其留下了更多畅想空间的未来。“敏感性和特异性并不是我们在LaMDA等模型中所追求的唯一品质,我们还在评估诸如兴趣度之类的维度,方法是评估回应是否具有洞察力,意想不到或机智。”

免责声明

我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!