徐东波:人工智能驱动科学研究的逻辑、风险及其治理

发布者:中国特色社会主义发展研究院发布时间:2024-06-02浏览次数:10

【摘 要】基于颠覆性创新技术的人工智能具有独特的科研驱动逻辑:通过催化驱动提升科学研究效率,通过协同驱动促进多维融合交互,通过算法驱动打破研究路径依赖。三重驱动逻辑的本质是某种形式化、程序化赋能,科学能否取得实质创新,关键在于科研人员、人工智能的创新潜质及两者的耦合交互水平。人工智能赋予科学研究新前景的同时,亦内隐多重潜在风险,如科研行动“道德失范”、研究过程“机械隐蔽”、形式创新“模糊真伪”、学术责任“无人承担”等。为降低驱动风险与提升驱动韧性,需要规制人工智能系统开发与应用,引导科研人员开展负责任创新,推进科学家与人工智能深度协同交互。

【关键词】人工智能;科学研究;驱动逻辑;潜在风险;治理;

 

2022年11月,由智能研究公司OpenAI研发的人工智能聊天机器人ChatGPT横空出世,引起包括学术界在内的社会各界广泛关注与热烈讨论。学者[1]认为,以ChatGPT为代表的大模型技术影响空前深远,科学研究正迎来 “第五范式”:以虚实交互、平行驱动的AI技术为核心,以智联网和区块链构建基础,考虑人的价值和知识的融入。同时,学者[2]对人工智能产品应用于科研表示担忧,认为人工智能技术会侵蚀人类的好奇心、价值观、想象力等研究者最宝贵的学术潜质。牛津大学人类未来研究所负责人尼克·博斯特罗姆[3]甚至认为,如果我们在没有解决控制问题之前就引入超级智能,人工智能研究的未来发展就会对人类生存带来重大威胁。这引发科研界对应用人工智能的深思——应将其视为一把可怕的利剑,还是奉为一种神奇的工具。2023年3月,为贯彻落实国家 《新一代人工智能发展规划》,科技部会同自然科学基金委启动 “人工智能驱动的科学研究” (AI for Science)专项部署工作,布局 “人工智能驱动的科学研究”前沿科技研发体系[4]。可见,人工智能驱动科学研究已进入国家政策设置议程,无论政策制定者,还是科研机构及其人员都无法回避人工智能给科学研究带来的机遇与挑战。对此,有必要对人工智能驱动科学研究的逻辑、风险进行探究,提出相关治理策略,以增强人工智能驱动科研的有效性、可持续性。

1 人工智能驱动科学研究的多重逻辑

基于颠覆性创新技术,人工智能一定程度上改变科研的效率观、合作观、路径观,实现对科研过程、协同、方式的全方位驱动,提升科研效率、促进多维融合交互、打破研究路径依赖,切实推进科学研究向纵深发展。

1.1 对人工智能驱动科学研究的界定

2021年联合国教科文组织发布的 《人工智能伦理建议书》把人工智能描述为 “有能力以类似于智能行为的方式处理数据和信息的系统,通常包括推理、学习、感知、预测、规划或控制等方面[5]。”严格意义上,人工智能所指不尽相同,有时指产品,有时则指技术、学科,产品是技术的实现,而技术又可内含于学科之中[6]。基于此,人工智能驱动科学研究是指,科研人员利用人工智能产品、学科、技术的智能化优势,促进科学研究过程加速、领域融合、合作深化、方法改进的复杂过程,以达到科学创新的目的。宏观上,人工智能技术的发展阶段决定对科学研究的大体驱动状况。迄今为止,人工智能尚未达到人类的认知能力,多数成功的人工智能应用属于 “狭义人工智能”或 “弱人工智能”范畴,能够在限定领域实施特殊任务,如国际象棋、图像识别、语音识别等[7,8],执行日常认知任务的速度与准确性超过了人类[9]。因此,当前人工智能对科学研究的某些方面如数据处理产生较强驱动,而对很多方面如实验设计的驱动仍较为不成熟。微观上,科研人员使用的人工智能产品的先进程度、道德状况等都将影响其驱动科学研究的效果、质量。从过程角度看,人工智能驱动科学研究分为3个阶段。驱动前阶段是通过识别与界定研究问题,科研人员决定是否使用、使用何种、如何使用人工智能产品等。驱动中阶段是科研人员使用人工智能产品的具体过程。驱动后阶段是人工智能驱动科学研究产生创新成果及成果的发表、推广等。

1.2 催化驱动:提升科学研究效率

催化驱动是指人工智能发挥正催化剂的促进效应,参与问题选择、文献综述、假设或预设提出、数据搜集或实验、结论与推论的得出等一系列科学研究步骤,提升科研工作效率。

其一,文献综述智能化。正如著名物理化学家威尔逊教授所言:“对过去的东西一无所知的人,大概不会有机会作出有价值的新贡献。在图书馆里度过6个小时,也许在实验室里可以节约6个月的时间。”[10]在现代科学研究中,借助人工智能产品如ChatGPT、Google Scholar、PubMed、IBM Watson Discovery、Semantic Scholar、Microsoft Academic、Aristo等,研究者可以更快速便捷地查询、阅读、整理乃至分析海量文献,发现相关领域的热点与趋势,极大地节约时间和精力。

其二,大数据处理分析。人工智能在大数据分析方面具有得天独厚的优势,其处理能力强、速度快、适应性和可扩展性良好。人工智能为天文学家提供高效、准确、自动化的数据分析工具,如生成黑洞的首张照片、预测太阳耀斑、绘制月球表面地图、在宇宙中寻找外星通信以及研究暗物质等[11]。在生物医学领域,由人工智能研究公司DeepMind开发的AlphaFold系统预测蛋白质结构的速度、准确性超越了以往方法,预测结果与实验测定的结构非常接近[12]。因此,人工智能在蛋白质结构预测方面的进展被 《科学》杂志评为2021年度突破[13]。

其三,实验自动化。实验自动化打破传统意义上实验费时费力费人费物的困境,形成由人工智能参与甚至主导的智能化新实验模式。2020年7月发表于 《自然》的一篇论文引起广泛关注:利物浦大学的科学家开发出智能科学机器人,它具有人形特征、无限耐心,可同时思考10个维度,每天工作21.5小时,通过批量处理贝叶斯搜索算法,该智能科学家在8天内自主操作并执行688次实验,由此研发出一种全新的化学催化剂[14]。自动化实验把机械、艰苦的重复性劳动留给机器人,科研人员则利用更多时间和精力去思考、解释实验结果,探索更复杂、高层次的科学问题。

1.3 协同驱动:促进多维融合交互

协同驱动是指人工智能与不同学科、领域及其多元科研要素交流、互动、协作,促进学科领域的交叉融合、科研要素的交互变革,从而提升研究的广度与深度。

一方面,促进学科领域交叉融合,提升研究广度。人工智能具有跨学科性质,其本身属于交叉学科,学科发展依靠计算机、数学、统计学、心理学、神经科学、工程学、哲学、语言学等多个学科的理论、方法与技术[15]。学科的分化、融合、再分化、再融合是一个复杂动态过程,受到技术进步、社会需求、学科内部理论方法创新等多种因素的影响。技术层面人工智能的发展是助推融合的重要力量,将赋能传统学科、加速不同学科间的交叉融合,衍生新的学科增长点[16],如信息生物学、计算心理学、数字人文学、虚拟世界研究、社交网络分析等。计算经济学就是由人工智能驱动的计算机科学与数学交叉融合的学科领域,人工智能技术为计算经济学提供强大的数据处理和分析能力、建模和仿真能力,有助于更准确地预测经济变量与市场走势。尽管计算经济学在人工智能出现之前就存在,但没有人工智能这个强大的技术中介,计算经济学的发展将受限。

另一方面,促进科研要素交互变革,提升研究深度。人工智能不仅与数据、信息等非智能化要素进行协同、互动,而且与研究人员形成深度交流、对话。缺乏人工智能参与的情形下,不同科研要素之间交流、互动的潜能释放有限。而人工智能的出现使得人机协同、人机互动成为可能,人工智能可以协同、辅助研究人员工作,共同决定物质类要素的调配与使用。所谓人机协同,就是“人”与 “机器”相互协作,二者取长补短,共同认识、共同感知、共同思考、共同决策、共同工作、互相理解、互相制约和相互监护[17]。深度的人机协同与互动将弥补人的智能缺陷,形成人机优势互补,深刻改变科研要素之间无序化合作,使每个科研要素都能在合适位置,并产生某种隐性连接与交互,以发挥最大科学效应。

1.4 算法驱动:打破研究路径依赖

算法驱动是指人工智能基于算法这一活跃核心要素,打破历史经验、旧技术、旧方法等对科学研究的绑架与控制,提供新的科学洞察力、新的技术方法,以实现科学的颠覆性创新。

适度的路径依赖有利于科学创新,但长期、过度、不健康的路径依赖将导致科学创新陷入瓶颈、困顿。得益于不断涌现、更新迭代的AI算法,人工智能为科学研究提供了强大的新技术支持,推动科学研究采用新的方法、工具。例如,数十年来,研究人员依靠密度泛函理论 (DFT)技术预测分子的物理性质,但这种方法有一定局限性,甚至预测氯化钠这样简单的分子都会给出错误结果。因此,过去10年理论化学家越来越多地尝试机器学习,特别是研究材料的化学反应性、导热能力等特性。2021年人工智能公司DeepMind开发了一种机器学习模型,通过预测分子内电子分布来计算分子的性质,这种模型能够比现有技术更准确地计算某些分子的特性[18]。

强大的算法甚至有潜力彻底改变传统研究路径,推动学术研究实现弯道超车、颠覆创新。随着深度强化学习、符号推理、多模态集成、自主决策规划等算法的深入发展,在特定领域应用的“狭义人工智能”未来终将发展成为 “通用人工智能”,具备跨环境泛化能力,即不需要提前编程每个特定任务,就可以适应不同新情境,其智能水平可与人类相媲美或超越人类[19]。这种基于超级算法的超越人类智能的 “AI科学家”将能够自主分析科学文献、提出假设、进行实验验证,生成新的科学洞见和理论。在这个过程中,算法对科学研究的驱动不再是小修小补的优化性驱动,而将改变做研究的整体思维、系统方法、全部流程,开辟一条崭新的智能化、自动化研究途径,从而取代半手工式、半智能化的研究方式。

1.5 多重驱动逻辑的本质

人工智能驱动科学研究遵循的效率提升、融合交互、路径优化三重逻辑,其实质是使科学研究的过程更快、广度与深度增强、方法更优。从这个角度看,人工智能在促进科研程序化、形式化变革方面颇具优势,如图1所示。

1 人工智能驱动科学研究的多重逻辑

然而,科学研究的本质是创新,而创新具有高度复杂性、不确定性、偶发性[20]。计算机也许可以代替承担单调流水线工作的劳工,但绝不能代替科学家[21]。同样,人工智能也许可以驱动作为确定过程的科学研究,但未必能驱动作为不确定性创新的科学研究。更进一步讲,科学研究的效率提升、融合交互、路径优化不必然带来创新发生,甚至阻碍创新生成。人工智能驱动科学研究的本质是某种形式化、程序化赋能,以辅助科学家完成某些特定任务。在地球文明系统内, “人类”本身是迄今所知晓的最为优秀的 “通用智能系统”[22],真正科学创新的产生依然要靠人来主导、思考、决策。人工智能、科研人员的创新潜质及两者的耦合互动关系是科学研究最终能否取得创新突破的关键因素,既不应夸大、也不应忽视人工智能的驱动力量,那些企图完全依靠人工智能技术就取得创新成果的想法是荒谬的。需要指出,人工智能驱动科学研究具有一般的催化、协同、算法驱动逻辑,具体到各个科学、领域,科学家还会根据相应学科、领域的知识与方法,构建独特的人工智能算法,形成特殊的科研驱动逻辑。

2 人工智能驱动科学研究的潜在风险

科学研究本身就是一件收益与风险兼具的项目。人工智能提升了科学研究的收益、风险程度,既可能助力科学研究走向持续创新的发展路径,又可能使科研陷入创新麻痹的漩涡。

2.1 科研行动 “道德失范”

人工智能驱动的科研行动极易发生道德失范问题。如图2所示,根据人工智能产品在开发或使用过程中可能存在的道德失范,分为严重失范、轻微失范、开发失范、使用失范4种类型。在第1象限,科研人员使用人工智能产品过程中有道德失范行为,如利用人工智能技术盗窃数据、操纵算法、传播虚假信息等。同时,这些人工智能产品在开发过程中也有道德失范问题,如内嵌偏见、歧视、侵犯隐私等不道德条文,因此,该象限内道德失范程度高。在第3象限,不论是人工智能产品的开发者还是使用者,都尽力避免违反学术道德、伦理规范,该象限内道德失范程度低。在第2象限,尽管科研人员在使用技术过程中遵循学术道德规范,但由于人工智能产品在开发时已有隐性失范发生,因此相关产品的普遍使用可能引发潜在大规模道德失范现象。在第4象限,人工智能产品本身不存在道德问题,但学者在使用时违反了道德伦理,因此,仍可能出现较强程度的道德失范行为。

2 人工智能驱动科学研究的四种道德失范类型

以风靡全球学术界的ChatGPT为例,不少学者对该产品侵犯隐私、算法歧视、价值渗透等进行道德谴责[23,24]23-24]。与其他AI语言模型一样,ChatGPT容易受到各种偏见的影响,包括性别、种族、文化、语言、意识形态偏见[25,26]25-26],这些偏差源于模型的训练数据[27]27]。相关研究表明,ChatGPT提供的答案背后的意识形态乃是趋向于环保主义与左翼社会自由主义的[28]28]。除上述开发失范问题,一些别有用心的人滥用ChatGPT制造虚假信息、学术垃圾等,将导致使用失范问题。国外研究表明,ChatGPT生成的摘要使审稿人难辨真假,甚至愚弄科学家[29]29]。需要指出,开发者、使用者的道德失范行为既可能是有意的,如为了学术发表、商业收入等不正当个人利益,在当前 “不发表,就出局”的高压学术环境下,不少学术冒险主义者、技术投机主义者想要钻人工智能道德监管之漏洞;也可能是无意的,如对潜在偏见、歧视、隐私问题不够重视,不慎违反道德伦理原则。基于人工智能的效率驱动逻辑,科研工作者对人工智能产生依赖,甚至无意识地将某些科研决策权交给AI系统,在缺乏人类道德指导的情况下,人工智能极易进行道德冒险。

2.2 驱动过程 “机械隐蔽”

科学研究是一项复杂活动,感知、思维、兴趣、情感、体验等主观意识能激发科学家的学术热情与动力,塑造非最快、但人性化的科研创新方向与方式。在手工作坊式的科学研究中,研究人员便于身临其境地体悟研究过程的细微变化,更易激发创新灵感。而人工智能具有典型的机械性,按照预定程序、规则重复开展活动,缺乏人特有的情感、直觉、主观判断等创造性特质。人工智能驱动的机械性科研任务可以提升效率、减少错误、提高一致性,为复杂问题解决提供基础,但机械化、自动化意味着研究者过程参与感、体验感较低,因而可能减弱创新潜力,抹杀科学创新苗头。比如,利用人工智能进行天文观测具有高效率、自动化等优点,但也有缺乏直观理解、忽略数据背景、依赖数据质量等限制,可能错过重要的学术创新机遇。

除了机械性,人工智能驱动科学研究的过程较为隐蔽。导致驱动过程不透明、难以解释的主要原因是人工智能技术的复杂性、模型运算的非线性、处理数据的大规模与高维度性。虽然研究人员已经开发出各种工具增强人工智能的可解释性,但人工智能越强大、越有用,一般来说就越难以解释[30]30]。以一种解释性较差的强大AI模型为例,深度学习一直被认为是黑箱模型,它包含数百万参数、非线性激活函数,用以处理大规模、高维度数据,其内部决策过程与推理逻辑十分难以被理解、解释[31]31],因此必须使用模型可解释技术进行解释。导致黑箱问题的主要原因在于人工智能模型、算法的极度复杂性与高度抽象性,次要原因则是研究人员通常不共享他们的源代码。在源代码缺失的情况下,其他研究者无法了解模型内部结构、数据处理过程与决策逻辑,导致研究过程不透明、难解释,人工智能驱动的科学研究面临可重复性危机[32]32]。可解释性对于用户有效理解、信任和管理强大的人工智能应用程序至关重要[33]33]。如果不能从科学角度解释人工智能驱动科学研究的过程与逻辑,则不仅无法通过修正模型完善研究路径,还可能导致创新误入歧途。

2.3 形式创新 “模糊真伪”

毋庸置疑,人工智能对科学创新具有强大推动作用,但人工智能不仅可以驱动实质性、颠覆性创新的生成,还在产生表面化、形式化的创新成果方面独具优势。所谓形式化创新,即借助智能化手段、方法、技术,快速制造出看似新颖、但缺乏独创性的成果,其实质是对现有成果的归纳、模仿、改编。由此可见,形式化创新重视对形式、方法改进,旨在提高效率。例如,自然语言处理(NLP)研究是人工智能研究的王冠[34]34],基于深度学习的自然语言处理模型ChatGPT通过模仿从互联网上整理的庞大文本数据库中的语言统计模式,从而生成令人信服的句子[35]35],生成内容全面系统、逻辑清晰、直抵人心。但实质上,该大型语言模型 (LLM)当前并不具备自主的内在理解能力与真正的独立创新思考。ChatGPT无非是建立在海量人工语料训练基础上 “野蛮投入”的结果,并没有什么独特创新之处,是对过去信息的总结归纳、判断评价,甚至还会根据不同用户习惯去改变自身答案以讨好使用者,这种技术会加剧人类 “自欺”现象的泛滥,从原则上看,假若ChatGPT技术在托勒密的时代就出现的话,哥白尼的日心说恐怕会永远被判定为错误答案[36,37]36-37]。换言之,与ChatGPT深度的对话、互动能够激发研究者的灵感,但无条件、过度依赖该类工具则只会形成表面的、形式上的创新。

当前,无论是政府场域,还是学术场域,对人工智能都非常重视,强调将人工智能与各个学科的理论、知识、方法相结合,形成“AI+学科”智能化研究的新范式。政府与学界的重视不只体现在理念、政策上,还提供实实在在的资源,如项目基金支持、论文发表机会等。为获取这些资源,许多技术主义者产出大量与人工智能相结合的学术成果。不少成果经过人工智能的符号化、理论化深度包装,使学界在短时间很难辨别其属于真创新还是伪创新。当我们追求一种新的研究方法、路径的时候,应该追求新方法、新路径带来的独特创新,而不是用新的方法、路径到达已经去过的地方。形式主义在人工智能驱动的科学领域盛行的关键原因是,还没有形成与人工智能相适应的创新评价体系,学术评价对成果数量过度重视、对成果质量轻视、对实质创新评估不足。

2.4 学术责任 “无人承担”

Matthias[38]38]认为,基于神经网络、基因算法、能动设计的自主学习机器产生一种新的情形,即机器的制造者/操作者原则上不再能够预测未来机器的行为,因此不能为其担负道德责任或债责。随着人工智能的快速发展,其驱动的科学研究可能导致 “责任鸿沟”,即无人承担科研责任。一般情况下,论著内容应该由作者负责,但当下学术界出现一些由人工智能与人合作完成的论文,如何清晰划分责任、避免出现责任鸿沟成为一件棘手的事情。有学者[39]39]提出由人负责、由机器负责和由人机关系负责3种解决路径,但3种路径各自都面临着困境。毕竟,人工智能具有匿名性与去中心化的特点,暂时无法为论文过程中出现谬误甚至造假主动承担责任,这是目前大多数学术期刊、出版商 “封杀”ChatGPT的主要理由之一[40]40]。例如, 《自然》 《科学》等国际知名学术期刊发表声明,完全禁止或严格限制使用ChatGPT等人工智能机器撰写学术论文[41,42]41-42],人工智能国际会议ICML表示,禁止在论文中使用大型语言模型所生成的文本[43]43], 《暨南学报 (哲学社会科学版)》编辑部也表示,暂不接受任何大型语言模型工具如ChatGPT单独或联合署名的文章。然而,封杀、禁止人工智能不是长久之计,亦不能从根本上跨越 “责任鸿沟”,一些学者隐瞒使用人工智能的事实,反而会造成更大规模的责任困境。

3 人工智能驱动科学研究的风险治理

为控制潜在风险、提升人工智能驱动科学创新的韧性,从人工智能,研究人员,以及两者之间的协同3个角度出发,开展系统的学术治理。

3.1 规制人工智能系统开发与应用

规制人工智能系统开发与其在科学研究上的应用,使其在开发与应用中符合学术道德规范,是打破“道德失范”风险的重要手段。

首先,降低风险的有效途径是实施全面的人工智能生命周期治理[44]44]。以一项人工智能产品的面世为例,开发者应有计划地将学术道德嵌入3个阶段19个步骤的开发过程中,即 “嵌入式道德”[45]45],如图3所示。在 “设计”阶段,AI/数据科学家应关注数据来源的合法性与科学性,采用参与式设计方法,让可能受到人工智能模型及其决策结果影响的代表性个人与组织参与其中[46,47]46-47]。在 “开发”阶段,AI/ML科学家应保障人工智能模型的公正性、透明度、可解释性,比如提供有关人工智能服务的说明书,包括产品谱系及其所经历的安全和性能测试等,以培养信任[48]48]。在 “部署”阶段,AI/ML工程师要预先将人工智能的操作风险考虑在内[49]49]。

其次,政府部门应出台专门的政策法规,建立相应监管机构。一方面,国家要制定专门针对“人工智能驱动科学研究的潜在风险”的政策法规,提出建设性指导意见,如透明公开、公平正义、非恶意、可解释等道德原则,明确具体流程、规范、要求,构建系统的 “值得信赖的”人工智能治理框架;另一方面,建立诸如人工智能伦理与合规性监管机构,负责评估、审查与批准涉及人工智能伦理风险的科研项目,监督应用人工智能的科研项目的合规性。最后,学术机构要加强科学创新与道德审查,实行严厉的追责制度。各类学术机构要研制与发布相关制度规定,对有人工智能参与的研究设立更严格、专门的审查,在审核其是否违反学术道德的基础上,重点关注研究的原创性。审查既要借助技术手段,又要充分发挥专家委员会的作用,必要时可要求成果所有者提供相关研究证明。一旦发现研究者存在违规问题,要根据相应违规等级严格处理。

3 人工智能全过程生命周期

3.2 引导科研人员开展负责任创新

人工智能治理原则、框架有积极指导意义,但仅靠原则与框架并不能保证人工智能及其应用符合道德标准[50,51]50-51]。科学是一项非常复杂的创新事业,在人工智能驱动科学创新的过程中,我们应特别关注科研人员的创新责任意识,让研究者负责任地开发与使用人工智能系统,最大程度地促进科学进步与减少负面影响。

负责任研究与创新是一个透明互动过程。在这一过程中,社会行动者和创新者相互反馈,充分考虑创新过程及其市场产品的(伦理)可接受性、可持续性和社会可取性,让科技发展适当地嵌入我们的社会中[52]52]。一方面,构建负责任的科研评价体系,强调成果的实质创新。负责任创新将风险治理转变为对创新本身的治理[53]53]。负责任的科研评价体系应该将成果的创新程度、影响力与道德状况等纳入其中,关注成果对内部科学、外部社会的可持续正向功用,引导科研工作者自觉抵制由人工智能驱动的功利、形式、表面创新,坚守科学的本真与纯粹,追求有益的颠覆性、原始性创新。另一方面,形成负责任研究的惯习,批判性且负责任地使用[54]54]人工智能。负责任创新要求研究人员在预测 (Anticipation)、反思(Reflexivity)、协商(Inclusion)和反馈 (Responsiveness)的过程中消除技术理性的不确定性[55]55]。面对发展中的人工智能技术,科研人员必须不断反思技术的隐性弊端与有限作用。个人视野有一定的局限,围绕人工智能驱动的科研项目,科研人员要与内外部学者展开多层次多渠道的持续交流互动,从研究效果、互动反馈中发现问题,完善研究,在长期的人机合作中形成批判性反思的习惯。

需要指出,负责任创新不是不创新,也不反对利用人工智能工具进行创新,而是倡导以责任为中心的适度创新。对于某些明显违反道德伦理、学术规范的人工智能驱动科学研究的活动,如侵犯隐私、歧视特定人群等,科学家应旗帜鲜明地主张“负责任停滞”,即当预见到某种创新可能带来严重后果就应立即终止[56]56]。研究人员只有始终将学术责任、学术良心放在首位,才能不被像人工智能这样的颠覆性创新技术带偏,使技术真正服务于人类文明进步。

3.3 推进科学家与人工智能深度协同

科学家与人工智能的深度协同是指科学家与人工智能系统密切交流、合作、互动,结合双方的专业知识与技术能力,获得更精准、大规模、快速的学术洞察,共同推动科研创新。

第一,科学家要对人工智能保持警惕性信任。相关研究表明,即使算法优于人类决策者,有些人依然会表现出“算法厌恶”[57,58]57-58]。诚然,科学家不能对人工智能过度欣赏,甚至盲目崇拜,但必要的理解、信任、拥抱是有益的。

第二,科学家与人工智能不能互换位置,应在各自擅长的领域发挥特殊功能。科学家的优势在于拥有独特的学术直觉、特有的创造性思维、精深的专业知识、健全的价值判断力,劣势在于数据处理能力有限、时间与资源限制、主观偏见与局限等,而人工智能刚好可以弥补人的不足。基于各自优势不同,科学家主要负责提出问题、设计创意、制定规划、开展决策等人性化科研过程,人工智能在启发思维、数据处理、预测模拟、模型优化、辅助决策等过程发挥更大作用。

第三,科学家与人工智能的深度协同应该是以人为中心的协同。人才是科学研究中最重要、最活跃的创新要素,科研人员要不断提升自身的人工智能素养以及所从事学科领域的学术素养,保障个人主体性、批判能力、创新能力不被人工智能技术所消解。有时,科学研究需要借助人工智能的力量加快研究速度,有时,手工作坊式的科研比人工智能的操作更具启发性。协同的领域、方向、方法、程度、原则等要由科学家来掌控,并随时根据研究的情况强化或减少与人工智能的协同。

第四,科学家与人工智能的深度协同是人机交互型、人机共创型协同。要实现有创造力的协同,对人工智能产品原理与使用方法有充分了解是基础,明确人机交互的主体、性质、目的、条件是关键[59]。例如,在对ChatGPT深入了解的基础上,与其进行高质量交互,完全可以启发研究人员的创新思维。

 

作者:徐东波东南大学中国特色社会主义发展研究院研究员

来源:《中国科技论坛》2024年第05期