人工智能语言能力提高引发担忧
(2022-08-11 12:00:00)分类: 军事与科技 |
可能失控?人工智能语言能力提高引发担忧
2022-07-27 参考消息网
(美联社7月17日)如果你向人工智能架构提问:做一台有知觉的计算机或者一只恐龙甚至松鼠是什么感觉?这些人工智能的表现可能已经相当令人信服。但在处理其他看似直截了当的任务时,就不是那么好了。
生成型已训练变换模型3(GPT-3),是一个由微软公司控制的系统,可根据数字图书和在线数据库里学到的知识,生成类似人写出来的文本。GPT-3能够进行对话,根据需要生成可读文本,甚至图像和视频。
GPT-3可以写出你想要的绝大多数文本——例如求职信或十四行诗。但当向它提个简单而荒谬的问题时,GPT-3就不知所措了。
这些强大的、消耗大量能量的人工智能系统,被称为“大型语言模型”,它们已经接受了大量文本和训练,被做成客服聊天机器人、谷歌搜索引擎。但制造这类人工智能系统的科技公司都对其内部运作方式讳莫如深,外人很难了解那些可能让它们变成虚假信息、种族主义危害源头的缺陷。它们非常擅长写文本,已达到人类的熟练程度。它们不太擅长的是阐述事实。有时候看起来非常有条理,几乎以假乱真,却是错的。
谨防失控风险
近日法国启动了一个新的大型语言模型。该模型据说是为了解决GPT-3等封闭系统的缺陷。这个模型名为大科学大型开放多语言模型。它可在46种语言下工作。
建立最能言善辩或信息量最大的系统,公司也常常担心失控的发生,可能有人在使用这些系统时不负责任。虚假信息可能迅速增加,人们将越来越难以知道这些信息来自人类还是计算机。
识别“有毒言论”
元宇宙平台公司最近推出了一个名为OPT-175B的新语言模型,该模型使用了可公开获得的数据,因此外部研究人员可以更容易地帮助识别和减轻该模型沾染的偏见,纠正其学到的有毒言论。这件事很难。我们敞开自己,迎接批评。这个模型会说一些我们不会感到自豪的事。虽然大多数公司都制定了内部措施,但现在需要的是更广泛的相关规范。
这些模型需要很高的计算能力,只有大公司和政府才负担得起。
2018年,谷歌推出BERT系统,使用一种将句子中的词语进行比对从而预测语义和语境的技术,这让追求更大、更智能的人工智能语言模型的趋势取得了重大飞跃,这些模型可以通过大量文本进行“预训练”。
但真正给人工智能世界留下深刻印象的是2020年发布的GPT-3。它带来了创新实验方面的繁荣,通过付费获得访问权限的人工智能研究人员把GPT-3当作一个沙盒来测试人工智能的性能。
纠正模型“偏见”
开放人工智能研究中心没有提供它如何过滤这些数据的细节,也没有向外部研究人员提供有关处理过的数据的访问权限。
最重要的是数据,而开放人工智能研究中心对其使用的数据极其讳莫如深。
开放语言模型所使用的数据集,有助于人类更好地理解模型的偏见。与只在美国接受英语文本训练的模型相比,接受阿拉伯语训练的多语言模型就不太可能对伊斯兰教发表攻击性言论或产生误解。
谷歌的LaMDA是目前最新的人工智能实验模型之一。一名谷歌工程师说它正在接近于有意识。
前一篇:《左传》·庄公·庄公二十九年
后一篇:《左传》·庄公·庄公三十年