分享: |
Step 1 是在医学院学习 2 年后进行,包括基础科学、药理学和病理生理学。学生平均学习 300 多个小时才能通过。
Step 2 是在医学院 4 年 + 1.5-2 年的临床经历后进行的,包括临床推断和医疗管理。
Step 3 是由完成了 0.5-1 年的研究生医学教育的医生参加。
通讯作者应以星号标明。大型语言模型(LLM),如 ChatGPT,目前不符合我们的作者资格标准。值得注意的是,作者的归属带有对工作的责任,这不能有效地适用于 LLM。LLM 的使用应该在稿件的方法部分(如果没有方法部分,则在合适的替代部分)进行适当记录。据了解,其他科学出版商也可能采取类似的立场。「我们不允许 AI 被列为我们发表的论文的作者,并且在没有适当引用的情况下使用 AI 生成的文本可能被视为剽窃,」《Science》系列期刊的主编 Holden Thorp 说。为什么要制定这些规则?编辑和出版商可以检测由大型语言模型生成的文本吗?现在,答案是「或许可以」。如果仔细检查的话,ChatGPT 的原始输出是可以被识别出来的,特别是当涉及的段落超过几段并且主题涉及科学工作时。这是因为,大型语言模型是根据它们的训练数据和它们所看到的 prompt 中的统计学关联来生成词汇模式的,这意味着它们的输出可能看起来非常平淡,或者包含简单的错误。此外,它们还不能引用资料来记录他们的输出。但在未来,人工智能研究人员也许能够解决这些问题 —— 例如,已经有一些实验将聊天机器人与引用资源的工具联系起来,还有一些实验用专门的科学文本训练聊天机器人。一些工具声称可以检测出大型语言模型生成的输出,《自然》杂志的出版商 Springer Nature 就是开发这项技术的团队之一。但是大型语言模型将会迅速改进。这些模型的创建者希望能够以某种方式为其工具的输出添加水印,尽管这在技术上可能不是万无一失的。近期较火的一篇为大型语言模型输出添加「水印」的论文。论文地址:https://arxiv.org/pdf/2301.10226v1.pdf从最早的时候起,「科学」就主张对方法和证据公开透明,无论当时流行的是哪种技术。研究人员应该扪心自问,如果他们或他们的同事使用的软件以一种根本不透明的方式工作,那么产生知识的过程所依赖的透明度和可信度如何保持。这就是为什么《自然》杂志制定了这些原则:最终,研究方法必须透明,作者必须诚实、真实。毕竟,这是科学赖以发展的基础。参考链接:https://www.nature.com/articles/d41586-023-00191-1
https://www.nature.com/articles/d41586-023-00107-z
世展网公众号 |
微信小程序 |
销售客服 |
门票客服 |