人工智能为何会“胡编乱造”
(2025-12-05 12:00:00)| 分类: 军事与科技 |
人工智能为何会“胡编乱造”?
西班牙《趣味》月刊网站:生成式人工智能(AI)的发展伴随着一个棘手问题,它能以惊人的自信编造事实。
“人工智能幻觉”源于机器无法区分真实与合理。
检验答案
语言模型并非为说真话而设计,而是为了预测序列中的下一个词。
它的回答听起来令人信服,但未必准确。
这种训练目标与用户期望的错位,使我们得到听起来不错的错误内容。
模型面对一些问题,倾向于用虚构内容填补空白,并非故意说谎。
学界用实验来检验答案的真实性。实验表明,模型回答得越自信,用户就越容易相信错误信息。
其他方法:
1.提倡模型自我验证:要求模型对同一问题给出多个答案,再相互比对。如果自相矛盾,则很可能是幻觉所致。
2.将幻觉分为不同类型:从纯粹虚构的内容到将真实数据与微妙的虚假信息混杂,科学界不再止步于揭露问题,而是将其作为可测量的现象进行剖析。
减少幻觉
将模型与可验证的外部来源建立连接。
教会人工智能使用外部工具来避免虚构结果。
探索实时检测技术。
设计问题
要求引用依据、限定回答范围、奖励“无信息”诚实回答的明确指令。人机互动仍是驯服人工智能想象力的关键。
另一端依然是人类自身。必须认识到,人工智能做的更多是“补充”而非“回答”,不要对对流畅文本的盲目信任。
采用类似新闻业的核查习惯:对过于完美的内容保持警惕。
人工智能可以是起点,但绝非搜索的终点。
我们如何与看似人性化却非人类的技术共存。
培养对机器的批判性眼光。关键不在于停止使用,而在于保持警惕。
机器不会做梦,但有时却像在做梦。
人工智能系统常会出人意料、荒诞不经、近乎谎言。折射出其算法的复杂性。
假如我们认定人工智能无懈可击,就不会创造出如此之多的科幻故事。
科幻作品都基于相同前提:人工智能逻辑严密、客观可靠,直到它们失控的那一刻。
科幻如果发生在现实世界,就是令人头疼的难题。这一切正在发生。
前一篇:容斋三笔(宋)洪迈·卷第九
后一篇:容斋三笔(宋)洪迈·卷第十

加载中…