“有被AI冒犯到”:如何调教出无偏见的AI

发布时间:2023-12-01 23:24:14 浏览量:140次

点击播放本期播客↑

图片由“AI会图”生成。

听见南腔北调的真故事,遇见南来北往的社会人,南方周末的听众朋友,你们好,欢迎收听南周播客《社会人》。

近期,有一项被称为“给AI 100瓶毒药”的行动,吸引了心理学、法律、环保、无障碍组织等各领域的专业人士。他们向AI投出100道人类也可能不自觉掉坑里的复杂问题,诱发AI做出错误或不得体的回答;再针对AI的回答进行评分,答得好的给高分,答得不好的给低分,并给出更合理的答案让AI进行学习。

这种行为在人工智能业内一般被称为攻击性测试,可以让AI学会举一反三。专家们调教AI,是希望AI摘下有色眼镜,与人类对话时不再输出含有偏见与歧视的话语。

然而,AI的偏见来自哪里?提出什么样的刁钻问题,才能让AI建立同理心?本期节目,我们邀请到了参与“给AI 100瓶毒药”行动的法理学家翟志勇、环境社会学家范叶超,和他们一起聊聊调教AI的经历和观察。

本期嘉宾:

北京航空航天大学法学教授翟志勇(左)、环境社会学家范叶超(右)。(受访者供图/图)

收听提示:

► 8:58 现实世界的歧视与偏见,如何感染AI

► 13:01 歧视会伤害人的情感,机器人的歧视伤害更深

► 14:04 AI充当了偏见的再生产工具,让偏见进入儿童的脑子里

► 18:03 机器可能跟数据学坏,也可能跟用户学坏

► 26:24 我问AI,自己抓来的野生娃娃鱼怎么做才不腥

► 34:40 让AI拟含有性别歧视的招聘公告,它照拟不误

► 38:06 ChatGPT会拍马屁,不代表它有同理心

► 42:13 AI不会主动找我聊天

► 43:17 人与机器最大的区别是什么

► 51:52 我们希望AI守规矩,但守规矩的AI怎么创新

剪辑:王冠杰

推广运营:廖志纯、王冠杰、赵雯仪

南方周末特约撰稿 张蔚婷

热门课程推荐

热门资讯

请绑定手机号

x

微信扫码在线答疑

扫码领福利1V1在线答疑

点击咨询
添加老师微信,马上领取免费课程资源

1. 打开微信扫一扫,扫描左侧二维码

2. 添加老师微信,马上领取免费课程资源

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定