来源:@第一财经日报微博
#AI偏见源于现实数据的局限# 【锐见 | 专访清华大学教授陈昌凤:AI是社会的镜子,折射出人性明暗】#AI是社会的镜子折射出人性明暗#
清华大学新闻与传播学院教授陈昌凤长期关注AI伦理安全。在她看来,人工智能犹如人类社会的镜子——世界是怎样的,算法就会反映出来是怎样。
当ChatGPT等AIGC工具日益渗透,其价值观偏差与伦理漏洞的根源何在?面对AI偏见与幻觉的双重挑战,普通个体应又该如何自处?围绕这些牵动大众神经的核心议题,记者专访了陈昌凤教授,试图在这轮技术狂潮中,厘清AI时代的生存法则。
陈昌凤教授提到,AI偏见的本质源于现实数据的局限性。以“机器偏见”系列报道为例,过去一个世纪,黑人平权运动中存在较多与司法系统冲突的记录——这本质是社会不公正的连锁反应:教育机会缺失、阶层固化等结构性问题,导致某些群体更容易被纳入犯罪统计。当算法直接采用这类带有历史伤痕的数据时,就形成了“黑人犯罪率高”的算法歧视。@时代财经