转自:千龙网
立陶宛维尔纽斯大学,过去一年开除10名违反AI使用规则的学生;美国耶鲁大学,一名学生因AI使用工具纠纷,将三名教授、两名院长告上法庭。麻省理工学院、明尼苏达大学等高校,近来都陆续发生类似情况。从“概念的游戏”到“潘多拉魔盒”,整个社会开始思考如何与AI相处,学术研究领域讨论尤为激烈。
学术研究关乎知识的积累、传承和创新,势必需要审慎对待。此前,我国已有一些高校和权威期刊,发布过相关使用指南和规范,探索AI时代知识生产的边界。而纵观其种种条款,本质都是在维护治学的终极目标——求真。
一方面,AI技术为搜集、翻译、提炼和分类开源信息提供了巨大便利,但它也极易让人陷入“认知陷阱”,误认为“信息即是知识”。特别是对于学术训练刚刚起步的学生来说,搜集和研判信息本身就是批判性思维的训练,有助于提升概念化思考能力和逻辑推理水平。
另一方面,AI大模型依赖数据集与算法。如果用于训练的数据本身存在谬误,生成的内容便会出错。AI还会产生“幻觉”,例如虚构数据和事件,做出前后矛盾的陈述。若一味等着“投喂”,将泥沙俱下的信息误认成知识,势必引发“真相危机”。而且,AI回答很大程度上与提问方式有关,极易受提问者的思维认知影响,导致集中展示特定观点、刻意回避某类信息、呈现片面真实等问题。
治学的核心在于求真,智能的目标立足效率。求真本是一个反复试错的艰难求索过程,追求效率从来不是目的。对于学术研究中的技术性环节,例如翻译、制图、校对,使用AI技术提高效率无可厚非,而一旦涉及知识性内容,我们仍然需要牢牢把握主导权。
如今,AI技术正深度介入我们的工作生活,谁也无法隔离于智能时代之外。如何重构研究中的技术伦理,有三个问题值得进一步讨论。
第一,AI是工具还是协作者?长期以来,我们面对的技术大多具有客体化体征,因而可将之简单视为工具、手段或者策略,更多讨论的是效率问题和个人偏好。但具有一定智能的技术,主体与客体间的“使用与被使用关系”被突破,我们是否应当发展人与技术的“协作关系”,需要付出巨大勇气去尝试。
第二,AI生成的内容是否属于知识?传统观点认为,无论是通过创造、发现或者习得,只有人的智力成果才能被称为知识。如果在人工干预下,AI生成的信息具有一定原创性或启发性,是否也可以将其视作知识的生产?进一步讲,我们是否仍然应该将人视作知识积累的唯一角色?
第三,AI辅助的尺度在哪儿?当前流行的观点是,学术作品不承认AI生成的主体架构、核心观点和主要段落具有原创性。AI的使用场景仅限于“格式规范”而非“内容生成”,这意味着不鼓励AI在学术研究中“显性表达”。它可以被用来启发思维和拓展视野,但仅用于辅助认知和思考过程。
“技术发展史,又是一部人类恐惧史”。其实,这种“恐惧”未尝不是一种力量。它可被视作一种社会接受机制,让我们审慎推动技术的运用,令其朝着符合社会整体利益的方向发展。AI治学亦然,我们既不用盲目拥抱,也不必产生“替代焦虑”。在保证“治学求真”的原则下不妨多试一试,从而“为新技术立法”,也为人类发展护航。
(作者单位:对外经济贸易大学计算社会科学实验室)