采访嘉宾:
郭贵春 山西大学原校长
曾大军 中国科学院自动化研究所副所长
何哲 中央党校(国家行政学院)国家治理教研部教授
本报记者:王翠娟
传统以人为主导的科研运行逻辑被打破
学习时报:当前,“人工智能驱动的新型科研范式”是一个热点话题。从辅助工具升级至新型范式,这个跨越的依据是什么?
曾大军:科研范式大致经历了三次重大变革。一是以观察实验为核心的经验范式,强调对自然现象的描述、记录、总结和归纳。二是以数理模型为基础的理论范式,强调通过数学建模对自然规律的抽象和推演。三是以仿真模拟为标志的计算范式,强调利用电子计算机仿真科学实验。这三种科研范式都遵循“观察——假设——验证”的传统研究逻辑。随着海量数据的涌现和算力的飞速提升,AI正推动科研逻辑发生根本性转变,催生出以“数据密集——智能涌现——人机协同”为特征的智能化科研新范式。首先,AI实现了以智能挖掘替代假设检验,从海量数据中自主发现人类难以直观捕捉的规律与关联,进而提出新假设。其次,AI擅长多元知识耦合,能够打破传统学科壁垒,在多学科融合中激发新知识的“智能涌现”。最后,AI驱动形成了“人类提出需求——AI生成路径——机器自动验证”的全新科研组织模式,实现了从发现问题到解决问题的全流程覆盖。
郭贵春:这一跨越的依据在于它正在推动科学研究的整体结构与工作方法发生根本性变革。这一变革不仅意味着科研工具的更新,更代表着新一轮科研范式的变革。它正在改变科学知识的生产方式、研究方法、知识体系,并重塑科研实践中的人机关系,使科学活动从方法到组织形态都进入一个全新的阶段。国内外学界普遍以知名数据库专家吉姆·格雷(JimGray)的“四范式科学模型”为基础,将AI驱动的新型科研模式视为“第五范式”。这一命名的意义并不在于形式上的创新,而是强调AI所带来的科研模式重组:它不再只是人类研究者的辅助工具,而是能够主动参与创造过程的科研主体。目前,AI已经呈现出一种“创造性毁灭”的特征,它对于整个科学研究方式,无论是自然科学还是人文社会科学,所产生的冲击与影响正是一个典型的过程。AI使得传统的重复性、形式化脑力工作失去意义,并打破了“收集、整理、计算、生成”等工作的人类独占地位。这种变革不是对传统科研范式的延伸,而是在根本上改变了传统科研活动以人为主导的运行逻辑,在改变科研方法的同时也在改变科学本身的形态,使科学从人类理性主导的解释体系,转向人机协作的生成体系。
何哲:AI驱动下的科研范式变革主要体现在三个方面。一是科研工作中使用者的比例。目前,超过一半甚至百分之七八十的科研工作者,在其科研工作的不同阶段中,都会使用到AI。二是在具体科研中工作量的比重。在科研的全链条中,AI能够参与的工作已经远超过一半,几乎所有的科研环节都可以有AI的参与。三是AI具有的深度能力,这也是最重要的体现。传统的数字工具,主要是电子检索文献,使用软件工具写作、绘图,使用计算工具进行计算,或者通过数字设备操作实验装置。但现在的AI大模型,可以设计研究、制定研究方案、进行深度计算并完成相应的仿真模拟,最后写成论文。人类的科研工作者正在从研究主体,转化为研究的督导者和检查者。
学习时报:作为典型案例,AI模型Alpha-Fold实现了对蛋白质复杂结构的预测。但是,该如何判断AI产生的科学预测?这种“AI优先,分析在后”的模式,会对科学理论的构建带来怎样的挑战?
曾大军:AlphaFold是AI赋能科学研究的标志性突破,它利用深度学习从序列数据中预测蛋白质三维结构,精度已接近实验水平,展示了AI直接“生成”科学知识的潜力。但科学研究必须区分模型预测与科学结论:只有经过置信度评估、物理规律一致性检查及严格实验检验的结果,才能被认为是可信的结论。
类似“AI优先,分析在后”的模式正广泛出现在材料设计、生物制药、气候模拟等领域,即AI先提出可能的规律或结构,人类再去验证与归纳。这种范式大幅提升了科学发现和数值计算的效率,也正在改变科学研究的方式:科学家不再从假设出发去寻找数据,而是利用科学数据训练AI,再从AI发现的模式中寻找新的假设与规律;理论研究也逐渐从解释已知现象,转向理解AI模型揭示的潜在规律。
郭贵春:这个问题触及了核心。这种“AI优先,分析在后”的模式,使得未来科研的面貌可能不再由人类的理性和想象来决定,而是由AI泛化的边界来决定,传统以“解释”为中心的科学模式让位于以“模型构造与动态拟合”为核心的新模式。在这种技术主导的新形态下,“科学发现”也将不再停留于传统库恩范式论意义上的内涵,仅仅是发现新的事实并基于这一事实重构出某种可理解的科学理论体系或解释框架已经远不能满足当下的需要。科学理论正在从传统以追求事物本质为目标的实在论,转向以解释功能结构和构造关系为目标的技术实践论。科学发现的确证也不再是通过对某种先验信念或科学假说的验证来完成,而是通过在大量归纳数据的基础上,提出具有限制条件与适用边界的结构化理论来完成。这要求我们对AI的预测保持审慎,并将其输出视为需要严格界定边界和验证条件的结构化理论模型。
新型科研范式带来新挑战
学习时报:在AI的驱动下,推动科学发展的主体从单一的“人”转变为“人机协作”,甚至AI在一定程度上进行自主创新与内容生成。这是否消解了人类研究的不可替代性?传统意义上的“科学发现”定义是否也要进行根本性重构?
曾大军:“人机协同”并没有完全消解人类研究的不可替代性,而是把不可替代性从“发现事实”转向“提出需求和深层诠释”。AI可生成假说、设计实验,但仍需人类设定目标、诠释发现、承担伦理责任。
“科学发现”的定义也无需根本重构,而应进行内涵扩展:从人类独立认知突破转向人机协同智能的产出。应该说,AI拓展了科学探索的广度与效率,但目标设定、伦理判断与深层诠释仍需要人类科学家把控。同时,我们也需要优化“科学发现”过程中的知识产权和责任归属等制度框架,以适配新型科研范式。
郭贵春:我认为是的。AI或许削弱了个体研究者的不可替代性,却为整体知识体系的重构提供了可能。其对于传统脑力劳动的替代恰恰正是一种对于思考能力的解放,反而应当促使人类在更基础、更全面的视角和语境下对科学研究进行反思和理解。在这种新型科研范式中,科研主体的角色也因此被重新界定,人类从知识的直接创造者转向知识系统的设计者与监督者。人类研究者不再主要承担重复计算与资料整理,而是负责在更高层面上设定问题、界定模型边界、判断数据可靠性,并从整体上把握科学知识的结构。科学发现从静态的理论转向动态的模型生成与经验拟合的过程,这在一定程度上构成了对“科学发现”定义的根本性重构。
何哲:显然会的。传统意义上,世界上的知识由两部分组成,一是人类已经发现的可知的知识世界,二是自然世界中更大的未知的知识世界。所有可知的知识,都能够被理解、复制和传播。但现在AI的普遍介入,将二分的知识世界划分成了三个部分,即人类可知的知识世界、AI挖掘或者创造出的知识世界(未必是对的)、未知的知识世界。因此,传统意义上单独由人类完成的知识发现主体性显然会被逐渐消解和二分,并且所有的知识发现也要分为两个部分,即人类发现整理检验过的知识与AI发现的未检验的知识。
学习时报:数据、算力、算法以及专业人才可以说是AI驱动下科学研究的核心支撑。目前,这些资源可能向少数国家或机构集中,这是否会加剧科学研究的不均衡?应如何防范与应对?
曾大军:这种资源集中确实有加剧科学研究不均衡的风险。为了防范和应对这些问题,一方面,推动资源开放与协同创新。通过建设高质量、开源的科学数据集,降低研究门槛。鼓励拥有超大规模算力的国家、机构或企业,将部分闲置算力以低价配额等形式,定向开放给特定领域的全球合作研究项目,尤其是面向气候变化、公共卫生等人类共同挑战的课题;国家和科研资助机构应设立专门的算力基金,确保算力资源直接、公平地配置到具体的研究团队和项目手中,特别是那些中小型机构和初创团队。另一方面,加强全球合作与本地能力建设。国际社会应协力推进向善、普惠的AI全球治理,通过技术转移与开源协作,助力发展中国家跨越技术断层;在发展中国家和资源薄弱地区,由政府与国际组织合作,投资建立专注于本地迫切需求的研究机构,通过提供有竞争力的经费、清晰的职业发展路径和自主的研究方向,形成人才集聚和科研创新的良好生态。
郭贵春:这是一个非常关键的问题。科研的基础资源不再是传统意义上的实验室与研究机构,而是在事实上去中心化的、庞大而开放的信息数据流或语料库,以及分布于网络中的数据与模型。知识不再由有限的研究团队垄断,而是通过开放平台与共享算法不断生成与更新。由此,科学创新的发生不依赖于资源的集中,而依赖于知识的开放与流通。默顿曾指出,科学创新的基础是知识的共有性与普遍性。AI的发展再次验证这一原则:算力与算法可以集中,但数据必须开放。只有开放数据与共享模型,才能孕育真正的创新生态。在这一过程中,数据的关键在于“精”而非“多”。因此,防范不均衡的关键在于推动数据和模型的开放性与可及性,构建一个更加开放的科学创新生态。
何哲:这个有影响,但是并不大。今天的大模型由于其便利的自然语言交互性,以及多模态的理解和输出,反而降低了对普通研究人员算法类的要求。当然,对于国家而言,要构建通用的面向全体科研人员的共性算力平台、若干专业的大模型平台以及专业的知识归集与分享平台,如此可以极大消除机会不平等。
学习时报:AI驱动的科研在发挥积极作用的同时,还潜藏着哪些容易被忽视的风险?
曾大军:一是认知层面的风险,主要是冲击科学知识本质。AI生成可能使科学家陷入“虚假掌控感”,输出的“幻觉”信息会威胁结果可靠性,模型的复杂性与专有性也会阻碍科研的可复现性。更关键的是,AI善于捕捉相关性却弱于因果推断,在需要深度逻辑的领域可能产生误导性结论。二是结构性风险,主要是对科研生态的重塑。算力与数据壁垒加剧资源集中,会导致学术“数字鸿沟”的形成,优势机构通过马太效应垄断人才资金,抑制生态多样性。传统评价体系也受到冲击,人机贡献度界定成为新难题,还会催生数据伪造、论文批量生产等新型学术不端。三是认知技能层面的风险,科学家主体性受到挑战。过度依赖AI,科学家将面临批判性思维与独立研究能力退化的严重后果,一旦AI承担核心智力劳动,不仅会导致实验设计、理论构建等核心能力萎缩,而且基于历史数据的模式化输出更可能扼杀直觉突破与创造性探索。四是安全伦理方面的风险。未来,隐私数据泄露、模型对抗攻击、算法偏见放大等问题可能会持续存在。尤为严峻的是,基础模型在推动科学进步的同时也可能被恶意应用,对社会安全构成潜在威胁。
郭贵春:除了资源集中风险,还需关注认知层面的风险。这场革命迫使我们重新界定“科学”这一概念。如果未来科研由AI的泛化边界决定,我们可能陷入对模型的盲目依赖,而丧失了对科学本质的深刻理解。科学不只是发现世界的方式,也是改造世界的方式,这种强大的改造能力若缺乏正确的价值引导和世界观把握,可能会带来难以预料的后果。同时,当前的AI主要依赖互联网语料建立语言模型,由此带来的AI幻觉和“黑箱”问题是需要警惕的风险点。
何哲:最大的风险有三个。一是主体性削弱。未来,AI可能会承担科研工作90%的智力劳动,显然对于科研人员的绝对数量和劳动需求就会降低,长此以往,对于人类的科学传承是有风险的。二是难以理解AI发现的知识。现在的AI还能够按照人类的逻辑进行科学发现,但未来很可能跳出人类的逻辑和科研定式开辟出全新的知识架构,甚至以AI自己可以理解的符号和架构重构人类的知识体系。那么,很可能出现AI发现的规律有效但是人类难以理解的现象,比如在新材料、超导等前沿领域,有一天可能AI产出了新成果,但是人类理解不了。三是可靠性风险。未来,越来越多的科学研发甚至科学装置依赖AI运作,例如现在的核聚变设施,因为只有AI大模型才能维护复杂的不稳定系统。但是,大模型本身也是不稳定的,这反而降低了整个科研体系的可靠性。
坚持人类的科研主体性
学习时报:在可预见的未来,由AI深度赋能的科研会呈现怎样的趋势?
曾大军:在可预见的未来,科学研究将发生根本性变革。一是科研模式将从传统的“作坊式”转向平台化与集群化,传统上依赖个别团队或实验室的孤立研究,将逐渐被大规模协作平台取代,整合全领域、多学科的数据、算法与模型,资源利用效率和科研产出规模会显著提升。二是人类的研究能力边界将得到极大拓展。未来,科学家通过AI可揭示隐藏在巨量噪声中的深层规律,从而推动对极端复杂系统的理解与干预,处理以往难以企及的超复杂问题。三是AI将从辅助工具升级为全流程科研伙伴。未来,AI将实现从假设生成、实验方案设计到自主执行实验乃至科学发现的全链条智能化,通过结合生成式模型与自动化实验设备,AI可自主提出创新性理论,设计验证路径,并在机器人实验室中执行高通量实验,极大加速科学发现进程。
郭贵春:从发展演进规律来说,未来的AI会通过与现实世界的动态反馈来更新自身结构。实验数据、传感记录、学术交互与社会实践的实时输入,将使AI具备对真实世界的持续感知与修正能力。算法的更新也正从静态设计转向自适应演化,算力的竞争则成为科技体系的基础性战略议题,它不仅决定AI科研的速度,也决定科学知识生成的边界。这将使科研从孤立的学科划分转向跨域的模型共建,从封闭的实验空间转向开放的网络生态。
何哲:有三个趋势是必然的。一是绝大多数的科研活动都被AI深度渗透,甚至到了离开AI就难以开展复杂的科研工作的地步,就跟今天我们离开科学计算软件或专业的科研装置无法完成复杂的科研工作一样。二是从事复杂科研工作的门槛会降低。传统的科研工作需要有非常高的门槛,要有通过长期艰苦学习的专业知识训练或者长期的实践操作能力,只有好的想法是无法进行严肃的科研活动的。但当AI普及后,大量的常规性工作如理论推演、方案设计、实验操作等都可以由AI仿真或者操作完成,好的想法反而成为最重要的。一些并非长期在专业领域工作的人就具有了进入科研工作的机会。就跟今天的围棋一样,当专业选手也用AI进行训练时,实质上业余与专业的差距就没有以前那么大了,如果比赛时都允许用AI,谁输谁赢还不一定。科研领域也将如此。科研门槛的降低当然是一个好事,特别是专业的AI科技公司,很可能成为新一类的综合性科研机构。也就是说,以前的科研是围绕着人和设备转的,未来的科研是围绕着大模型转的。三是AI将成为研发的前沿和主力。人类更多的工作是提供宏大的想象力和在AI之后验证其知识发现,让AI的发现被人类所理解和归并。最糟糕的局面是,未来AI重新构建了一套全新的知识体系,但理解起来很困难。
学习时报:在新型科研范式下,成功科学家的核心能力是什么?这对我们当前的人才培养提出了怎样的要求?
曾大军:在AI驱动的新型科研范式下,科学家的核心能力正在发生根本转变。一是定义问题的能力。AI非常擅长“解题”,但真正推动科学进步的是“出题”,尤其是提出开创性的、高价值的AI-Ready科学问题,这需要科学家的好奇心、全局视野与对未来的洞察。二是高效的人机协同能力。未来的科研不再是“人用工具”的线性过程,而是人机共创的系统工程。这要求科研人员具备AI理解力、交互能力与系统统筹思维,能在复杂的人机协同系统中,指挥AI成为科研的“共研伙伴”。三是跨域整合与框架构建能力。AI能生成海量知识,但如何将这些碎片拼成新的理论体系,仍需人类的创造性思维。未来的科学家,不仅是知识的发现者,更要成为知识结构的设计师,通过搭建新的认知框架,让AI的输出升华为真正的科学理解。所以,未来的科学家将是能提出好问题、驾驭智能工具、重构科学图景的人类智慧代表。在人才培养上,应从“知识灌输”转向“问题驱动”,培养学生发现与定义问题的能力;强化AI教育的基础地位;打破学科壁垒,推进“AI+X”交叉培养,塑造既懂科学原理又懂智能方法的双栖型创新人才。
郭贵春:在新型科研范式下,人类的科研任务将回归科学的本源,也就是确立科学世界观与科学价值的方向。未来的科研训练应当减少重复性操作,而增加反思与批判性分析的环节。学生和研究者需要具备更广阔的学科视野与更强的结构化理解能力,以便驾驭AI工具并在信息洪流中保持独立判断。成功科学家的核心能力将体现在提出深刻问题的能力、进行批判性思考和价值判断的能力,以及在更高层次上设计研究框架和把握知识结构的能力。这要求我们对传统的教育体系和教育逻辑进行重新思考。
何哲:对于科学家而言,学习使用AI将是一种必然的能力。但最重要的也是人才培养中要关注的,主要是两个方面。首先,对于最基础知识的深度理解和掌握。最前沿的科研有时候往往与最基础的知识直接关联,未来大量工作都由AI来完成,那么基础知识的掌握就越来越重要。其次,要有想象力。想象力是创新力的重要体现,对于实现关键的突破十分必要。要努力培养具有想象力和基础理论自信的科学家,如此才能在AI时代坚持人类的科研主体性。让AI牵着鼻子走甚至把AI当作圭臬,是绝对不行的。
学习时报:在新型科研范式下,我们如何建立一套敏捷治理框架,既能防范风险,又不扼杀创新?
曾大军:治理框架要围绕“谁投入、谁受益”的公平收益共享机制展开,确保贡献者获得合理的激励,同时实现对风险的有效管理。首先,构建全流程、可溯源的追踪机制。为科研活动中的核心基础资源,包括原始数据、训练模型、计算工具和关键代码等,建立唯一且永久的标识。通过将这些标识嵌入研究全流程,实现对科研成果的精确定位和溯源,明确每一阶段的贡献主体和知识产权归属。这是风险治理的基础,也是确定收益分配权的基础。其次,大力推动模型与算法的开放共享,将其纳入科研激励体系。研究者贡献高质量、可复用的模型和算法,应被视为与发表高水平论文同等重要的创新绩效,并明确计入科研人员的绩效考核。治理框架应提供实质性的资源奖励,如优先获得高性能算力支持、项目经费倾斜以及相应的荣誉和项目奖励。这种机制把共享视为一种高价值的投入,而非额外的负担。如此一来,既能确保所有创新活动处于透明、可控的环境中,又能通过公平的收益分配和资源激励,最大限度地释放科研人员的主动性和创新潜能。
郭贵春:这一变革要求科研共同体以更开放的姿态、更精确的制度设计来回应技术带来的挑战。比如,科研评价体系需要进行相应调整,论文不再是唯一的成果形式,算法的公开性、模型的可复现性、数据的质量与共享度,都将成为衡量科研贡献的重要标准。治理框架应围绕这些新标准构建,同时,治理本身也应是动态和自适应的。只有当我们在使用AI的过程中重新认识科学,并重新定义人类在其中不可替代的位置与使命,这场科研范式变革才能真正完成其系统性的进步。科学的未来不在于技术取代人,而在于人如何在新的范式中重新定义自身的位置与使命。
何哲:治理框架要有三个基础要素。一是坚持人类的科研主体性。在人才培养方面,无论AI多么强大,对科研人员的培养都必须坚持,至少要保持现有的规模。同时,研发过程中可以大量使用AI,但是在成果理解、检验、发表以及科研伦理审核时,必须坚持人类主体性,人类要成为最后的裁判。二是建立多种AI科研平台的相互监督审核机制。人类的科研审核有同行评议机制,对AI的审核也应如此。AI的研究成果既要由人类审核,同时也要更多引入其他AI共同审核。不同的大模型,其导向和参数系统都是不同的,越多的模型来检验,出现风险的概率就越小。所以,科研大模型领域也要反垄断,不能出现一家独大的情况。三是建立通用的科研大模型平台。只有越来越多的人从事科研、其他领域的人共同关注科研,特别是人文社会科学专业的人也能够通过科研大模型平台理解前沿科技领域,并随时发现一些可能隐藏的危机,才能尽可能消除风险。
《 学习时报 》(2025年11月10日 第 05 版)