人工智能治理问题案例
(2022-05-13 20:01:24)案例一:T某开发了一款新的简历筛选算法系统。因为他希望这套系统能够免除种族偏见,他将“种族”变量从训练数据集中剔除。然而,该系统很快从现有的训练数据集中的现存偏误中识别出了种族的关联变量,如姓名、地址、受教育机构等,并用这些变量使得雇主仍然做出了带偏见的雇佣决策。
这是一个目标直接对准失灵的现象。T某渴望避免种族偏见,但是没有意识到,他的这种事实方案导致了他所关心但不愿见到的精准的偏见。
案例二:M某开发了一套推荐模型,从而能够最大化使用者在某个社会网络平台的使用量。当他发现该系统导致了显著增加的政治极化,他没有改变这个过程。
这是一个社会目标些协同失灵的例子。人工智能系统追求,且成功地取得了它被指派的目标,但是它对社会造成了巨大的外部性(通过增加政治极化)。
案例三:M某开发了一套推荐模型,从而试图最大化使用者在某个社会网络平台的使用量。他失望地发现该系统也增加了政治极化问题。
这是一个典型的案例:规定了过于狭隘的目标,但同时得到了未曾预期的副作用。在上面的案例中,M某没能预期到他的推荐模型也会影响到其使用者的政治观点。
案例四:T某告诉他的智能手机助手,呼叫J某,因为他准备外出参加聚会。他很尴尬的是,他半夜设置的呼叫唤醒了他的老板而不是他的兄弟,这老板在通讯录里也是J开头。
这是一个人工智能系统错误解读其委托人的目标的案例,因为它没有正确地解读上下文。人类助手会知道不会在深夜呼叫工作伙伴,且不会错误地将J某理解为是老板而不是自己的兄弟。