斯坦福大学团队的最新报告就指出,在 ChatGPT 发布后的短短五个月内,LLMs 已迅速成为许多学者修正和完善论文的主要工具,特殊是在打算机科学领域,大约 17% 的择要,15.3% 的弁言利用了大模型参与写作[1]。
图丨不同领域的学术写作中经由 LLMs 修正的句子的估算比例(来源:arXiv)
而《科学》(Science)、《细胞》(Cell)等顶级期刊也在此前相继开放绿灯,许可研究者在“方法”部分中明确标注的条件下,利用天生式人工智能和大措辞模型赞助论文文本与图像的天生,这标志着 LLM 在学术写作已逐渐被正式收受接管和运用。
图丨《科学》期刊关于在学术论文写作中利用 AI 的政策变革(来源:Science)
显然,利用 LLMs 赞助论文写作已经越来越成为不可逆转的潮流。那么,与其保持抗拒,我们不如更主动地去思考,如何才能更好地利用这些技能来提高自己科研产出的效率。
近日,葡萄牙天主教大学助理教授德里琼-格鲁达(Dritjon Gruda)揭橥于 Nature Career Column 的专文为这一问题供应了指引[2]。
图丨干系文章(来源:Nature Career Column)
格鲁达教授认为,LLMs 对科研写作有益与否的关键在于利用它的方法,其真正代价并不在于完备依赖它天生文本,而是在于利用这些工具,将其与个人专业知识来相结合起来,共同提升产出的质量。这种互动不仅有益于完善写作论述的内在逻辑,也能帮助提升我们简化繁芜表述的能力。
首先在学术写作方面,LLMs 作为高效的文本润色工具,其效能取决于充足的语境信息供给。
当我们利用 LLMs 优化论文某部分时,首先要做的是向模型供应文章的语境背景,包括核心论点、研究领域或只是其关键要点,从而帮助 AI 理解任务的详细情境,然后再将这些信息呈现给我们所利用的天生式 AI。
至于详细模型的选用,虽然 OpenAI 的 ChatGPT 因其广泛适用性每每是首选,但对付须要精准把握措辞奇妙差异的任务,比如剖析检索问题或文本,Google 的 Gemini 模型表现要更好一点。如果须要在离线情形下利用天生式 AI,那么 Mixtral 的开源LLM则是更为空想的选择。而对付中文的学术写作,或许海内各种大模型的表现会更为出色。
但无论我们选择哪种大模型,核心还是在于供应足够精确的指令。越明确的指令每每能产出更空想的成果。
例如,我们可以设定指令为:“我正在为一本顶尖【学科】学术期刊撰写一篇关于【主题】的论文。我不才面这一段考试测验表达的是【详细不雅观点】。请重新表述,以便于清晰、连贯和简洁,并确保每个段落自然过渡到下一个段落。去掉行话。利用专业语气。”
我们对一篇已发布表的文献(arXiv:2404.17524)中的文段稍加修正,使其缺少连贯性和明晰性,借这段笔墨来演示一下上述方法的效果。
原网页为英文,为了方便描述用工具翻译成中文,内容或有不准确的情形(来源:络绎科学)
可以看到,相较原有内容,经由 AI 优化后的文本展现出了更高的专业性,在措辞表述和逻辑上也流畅许多。
这种方法也可以用于回应审稿人见地。
但与 AI 对话的第一次回答可能并不完美,我们须要不断地进行优化和迭代。通过细化指令或添加更多有效信息,才能不断改进结果。
如果有些地方修正得不太到位,我们可以直接指出:“这还不是我想要的意思。请调度这部分。”或者,我们也可以认可其改进,匆匆使理解精确的修正办法:“现在清楚多了,但还须要调度结尾部分,以便与下一部分有更紧密的衔接。”
这一过程可以将繁复的写作转化为可控的迭代过程,通过引入 AI 的视角丰富文本内容,使之蕴含超出作者当前认知的见地。从而,AI 能成为一种启示思维的对话伙伴,而非代替作者创作或担当评审角色。
其次,天生式 AI 也能为同行评审供应帮助。
实际上,此前斯坦福团队的另一项研究就表明,ICLR2024(International Conference on Learning Representations,国际表征学习大会)、NeurIPS(Conference and Workshop on Neural Information Processing Systems, 神经信息处理系统大会)等 AI 顶会的同行评审就有 16.9% 是由 ChatGPT 天生[3],大措辞模型实际上已经渗入了学术写作与出版的各个环节。
图丨ICLR 2024 同行评审中大概率由人工智能天生的词汇的涌现频率变革(来源:arXiv)
但由于涉及隐私问题,目前学界对付在评审环节利用这一工具态度要更为谨慎,例如《科学》明确哀求“审稿人不得利用人工智能技能来天生或撰写审稿,由于这可能会违反稿件的机密性”。因此,若要在评审环节利用 AI,那么其方法也要进行调度。
格鲁达建议,审稿人应在全面阅读稿件后,概括关键点与反馈要点,随后让 AI 赞助组织和表达这些反馈,把稳避免直接上传原始稿件以保护隐私。
详细操作上,我们可以这样勾引 AI:“假设你是拥有 20 多年【领域】学术履历的专家和资深学者。根据我对【领域】一篇论文的择要,其紧张焦点是【主题】,按照以下顺序供应对该论文的详细评审:1)简要谈论其核心内容;2)识别其局限性;3)按主要性顺序阐明每个局限性的意义。始终保持简洁和专业的语气。”
文章认为,与 AI 的协作实际上具有丰富的可能性,这些工具常常能供应一些我们猜想之外的视角。
例如,ChatGPT 善于阐明和证明审稿人在评审中创造的详细局限性的缘故原由,这有助于我们理解研究贡献的更广泛内涵。如果我们能识别出方法上的局限性,ChatGPT 则可以详细阐述这些局限性并提出在修订中战胜它们的方法,帮助我们将局限性及其对论文整体贡献的影响联系起来。
但要把稳的是,AI 的建议并不一定完备精确,因此终极的评审任务始终在于审稿人自身,他必须能够区分事实与非事实,没有任何 AI 能可靠地做到这一点。
此外,LLMs 在期刊的编辑事情中也具有很高的实用代价。
对编辑们来说,向作者供应培植性的编辑反馈并非易事,尤其是当他们同时审核多篇稿件时,每每很难给每位投稿人给予一个足够清晰而充分的反馈,但这显然也是投稿人们并不乐于见到的。
而天生式 AI 正好能在这个过程中发挥浸染,帮助编辑编写出更为精确而具有人情味与培植性的见地,并且也不会僭越人类编辑的核心决策角色。
在实践中,编辑在完成论文评估并列出优缺陷后,就可通过如下办法勾引 AI:“基于这些信息,给作者起草一封信。突出手稿的关键问题,并清楚地阐明为什么只管手稿的主题很有趣,但可能没有供应足够的进展以值得揭橥。避免利用行话,直接表达。始终保持专业和尊重的语气。”
当然,这也可能须要几次迭代才能使语气和内容恰到好处。
总而言之,奥妙地在学术写作中融入 AI 技能,无疑是提升科研揭橥效率的一大助力。而驾驭这股力量的关键,在于我们如何善用 AI ,使其作为赞助思想的工具,确保技能为我们的创造力做事,而不是让我们的思维被技能所束缚。
参考文献:
[1].https://doi.org/10.48550/arXiv.2404.01268
[2].https://www.nature.com/articles/d41586-024-01042-3#author-0
[3].https://doi.org/10.48550/arXiv.2403.07183
本文内容不代表平台态度,不构成任何投资见地和建议,以个人官网/官方/公司公告为准。