饮食常识Manual
太欣新材料科技Nature调查发现:AI正在改变科学家的研究方式
太欣新材料科技太欣新材料科技太欣新材料科技智东西10月12日消息,全球顶尖科学学术期刊《Nature》于10月10日发表了一篇科学家利用人工智能(AI)工具做科学研究的行业观察,发现AI工具正在改变传统的科研工作方式。目前,许多AI工具可以帮研究人员在大量文献中筛选出所需资料,从而使科学研究更加高效。 这些用于科学研究检索的AI工具基于大语言模型(LLM),其不仅可以搜集、筛选现有研究文献,还可以总结、列举文中的关键发现。背后的AI公司不断提升这些模型的性能,并定期推出新的AI工具。 《Nature》杂志采访了多位AI科学检索工具的开发者和使用者后,汇集了他们的实际上手体验,以及使用这些AI工具的潜在风险。 据《Nature》统计,市面上最受欢迎的AI科学检索工具包括Elicit、Consensus和You,它们为研究人员提供了多种高效完成文献综述的方式。 当研究人员在Elicit中输入一个研究问题后,该AI工具会列出相关论文,并总结这些论文的主要发现。 在此基础上,研究人员还可以针对某一篇论文继续提问,以及指定留下某一本期刊或某一种研究类型的内容。 公司同名AI工具Consensus可以帮研究人员搜集、整理科学界对某个科学课题有哪些说法和争议。 举个例子,当研究人员输入“可以治疗抑郁症吗”这个问题后,该AI工具会生成一个“Consensus meter(共识度量器)”,其会总结支持、反对或不确定该假设的论点和论据,以显示科学界对上述问题的共识程度。 ▲Consensus meter(共识度量器)可以更直观地展示科研行业共识(图源:《Nature》) Consensus的首席执行官Eric Olson(埃里克奥尔森)称,其AI工具虽然不能替代研究人员去深入分析论文内容,但可以有效帮助他们速览研究动态并归纳主流研究方向。 You方面自称其同名AI工具“You”,是第一个结合了文献最新引用数据的AI检索工具。该AI工具为研究人员提供了探索研究问题的多种模式,例如其“genius mode(天才模式)”会以图表的形式反馈检索结果。 上个月,You还推出了一款允许多人协作的AI工具。研发人员可以合作定制、共享个性化的AI聊天框,令其自动执行诸如事实核查之类的特定任务。 除了热门的Elicit、Consensus和You外,其他AI检索工具也在探索利用AI技术提升科研效率的更多应用场景。 美国AI生物学知识问答平台BioloGPT能够针对生物学问题,生成总结性的、更有深度的回答,是大量垂直于单一学科的AI工具之一。 今年9月,英国一站式科研服务公司Clarivate推出了一个AI检索工具,研究人员可以用其快速调用Web of Science数据库中的内容。Clarivate方面称,基于该AI检索工具,研究人员输入一个研究问题后,可以以图谱的形式查看相关的论文摘要、科研主题和引用文献太欣新材料科技,并且能看到每一篇参考文献的标注,从而更高效地找出关键论文及其论点。 此外,即便Web of Science中收录的是英文论文,Clarivate的AI检索工具也可以用英语外的其他语言总结论文中的关键信息。在Clarivate产品副总裁Francesca Buckland(弗朗西斯卡巴克兰德)看来,将多语言的翻译能力融入AI检索工具背后的大模型中,是一件“非常具有潜力”的事情,它可以减少全球科研资源不平等的情况。 当被《Nature》问及“最好用的AI检索工具是什么”时,加拿大流行病学家Razia Aliani(拉齐娅阿利亚尼)说:“我认为这通常取决于实际研究目的。”目前她在澳大利亚一家非营利性的文献综述公司工作,公司名为Covidence。 如果需要了解某个科研主题的不同观点和共识,Aliani会倾向于使用Consensus。但要审核大型数据库时,她会选择用其他AI检索工具,比如Elicit。 在Elicit上抛出初始研究方向后,Aliani会根据该AI工具的检索结果,排除与研究方向无关的论文,然后深入剩余的关联性更强的文献,以微调初始研究方向太欣新材料科技。 她认为太欣新材料科技,AI科研检索工具不仅节省了时间,还能提高科研工作质量、激发创造力并减轻科研压力。 Anna Mills(安娜米尔斯)在美国加利福尼亚州的马林学院教授基础写作课程,平常也会涉及有关如何开展研究过程的课程。她虽然很想向学生推荐这些AI检索工具,但同时也担心这些工具会妨碍学生深入理解一些学术研究。 相较于用AI检索工具获取科研信息,她更希望教会学生如何辨别AI检索结果中的错误,从而培养他们辩证使用AI工具的能力。 美国AI生物学知识问答平台BioloGPT的创始人Conner Lambden(康纳兰登)也认为:“学会对一切事物保持怀疑态度,包括你自己在用的研究方法,是成为一名优秀的科学家的必经之路。” AI大模型在检索过程中时不时出现“幻觉”,已是一个老生常谈的问题。在AI界,“”幻觉(Hallucination)”是指AI模型编造、引用、输出一些具有误导性的、虚假的、无中生有的信息。 而对于ChatGPT等主流AI聊天机器人回答准确性的担忧,也蔓延到了AI科学检索工具上。多位研究人员提醒应谨慎使用这些AI科学检索工具。 用AI检索工具做科研时,常见的错误有编造统计数据、误解引用的论文、AI大模型的偏见。 体育科学家Alec Thomas(亚历克托马斯)目前在瑞士的洛桑大学做研究,他曾一度“非常欣赏AI检索工具”。 然而,在亲自试用一些AI检索工具后,他的态度却发生了180度大转弯。Thomas决定放弃使用这些AI检索工具,原因是他发现AI生成的答案中有“非常严重的基础性错误”。 例如,他用AI检索工具研究“参与体育活动对患有饮食失调的人的影响”时,AI引用了一篇与研究问题毫无关系的论文来生成研究结论。 Thomas直言:“我们不会相信一个公认可能随时会出现幻觉的人类,那又凭什么去相信有类似症状的AI呢?” 据多位接受《Nature》采访的AI检索工具开发者透露,他们已经采取了安全措施,以提高AI检索的准确性。 美国AI论文生成公司Elicit的项目开发负责人James Brady(詹姆斯布拉迪)称,该公司十分重视AI检索工具的准确性问题,正在使用多个安全系统检查AI回答中的错误。 英国一站式科研服务公司Clarivate产品副总裁Buckland则称,Web of Science的AI工具有“可靠的保护机制”,以规避AI生成带有欺骗性的、不准确的内容。在测试期间,她的研发团队曾与大约1.5万名研究人员共同整合反馈,以调试AI检索的准确性。 尽管经过开发者的不断纠偏,AI检索工具的使用体验有所改善,美国AI学术搜索引擎公司Consensus的CEO Olson却认为,这非但不能根治AI的“幻觉”,还可能会加重“病情”。 Olson解释道,通过人为反馈调试的AI检索工具,倾向于得出对人类有益的答案,并且会因此自主填补一些不存在的事实。 从《Nature》的调查中,我们可以看到AI检索的应用场景,已经逐渐向细分领域渗透。 这也意味着,类似于AI科研检索领域,未来AI大模型及其产品对专业性、准确性有着更严格的要求。 目前来看,面向专业领域微调后的AI模型,出现“幻觉”的概率和频率会有所降低,而其存在的偏见问题则不能光靠技术更新来解决。 李飞飞于2015年联合创建了AI4All项目,旨在吸纳更多诸如女性、有色人种、工薪阶层的AI人才,以减轻开发AI大模型过程中存在的偏见。 Andrew Hoblitzell(安德鲁霍布里策尔)是印度的一名生成式AI研究人员,他已在多所大学开设了围绕AI4All项目的讲座。 在他看来,AI检索工具可以在一定程度上为科研过程提供支持,但前提是科学家要亲自验证过AI生成的信息。 Hoblitzell称:“现阶段,这些AI检索工具应该是科研的辅助工具,而不是最终的成果来源。”