生成式AI辅助科研学术调查

您好!非常感谢您参与本次学术调查。本问卷旨在了解科研人员在日常工作中使用生成式人工智能(如ChatGPT、Claude、DeepSeek等)的真实习惯与客观感受。


重要提示:当前生成式 AI 在学术界尚处于探索应用期,不同学者有完全不同的使用习惯,这里没有任何对错之分,也不涉及对您学术严谨性的道德评价。本调查采取完全匿名形式,所有数据仅用于学术统计分析,绝不泄露您的个人隐私。请您根据真实情况和第一直觉放心作答。

1. 您的性别
2. 您的最高学历 / 目前就读阶段
3. 您的主要学科背景
4. 过去半年内,您使用生成式 AI 辅助科研相关工作(如查阅文献、润色文字、编写代码、数据分析等)的频率是

【请您先阅读以下情境,并在回答本部分问题时尽可能代入该状态】:


假设您目前正在撰写一项重要的学术论文或项目申报书,距离提交截止日期仅剩最后 48小时。为了加快进度,您使用生成式 AI 辅助完成了部分复杂的文献整理、论证润色或初步的数据解读。AI 输出的结果在文字组织上非常专业且极具说服力,极大缓解了您的进度压力。


基于上述情境,请您凭“第一直觉”评价以下描述与您内心真实感受的符合程度。


(请不要过度思考,1 = 完全不符合,2 = 比较不符合,3 = 一般/不确定,4 = 比较符合,5 = 完全符合)

5. 我能准确分辨哪些AI辅助行为属于“合法增效”,哪些触及了学术伦理的底线。
6. 当我无法看透AI给出某个精辟结论的底层推导过程时,我会感到一种莫名的不安。
7. 在阅读AI生成的复杂综述或分析时,我脑海中会习惯性地对其底层数据源产生一丝怀疑。
8. 我时常担忧未按规范披露 AI 的使用痕迹,未来可能会引发撤稿或被通报的潜在风险。
9. 在高强度科研环境下,如果引用的AI内容后来被发现有错,我认为很大程度上应归因于当前算法自身的局限性。
10. 我对目前所在学科/学术共同体关于AIGC 使用的模糊地带和明确边界都有清晰的把握。
11. 面对AI给出的科研方案,我通常不会直接采纳,而是倾向于先去寻找其中可能存在的逻辑漏洞或偏见。
12. 在采纳那些看似专业但真伪难辨的AI建议时,我心中往往伴随着一种紧张感。
13. 考虑到AI算法的黑箱特性,我有时会害怕自己在完全不知情的情况下误踩了学术不端的红线。
14. 既然目前学术界深度使用AI辅助已成为一种普遍的“隐性常态”,在非核心创新点上未做详尽声明也是可以理解的。
15. 即便AI输出的结论看起来十分完美,我也会在潜意识里保持一种审慎和防御的心态。
16. 我十分清楚所在机构对于在学术文本中如何声明AI使用情况的具体要求。
17. 在非正式的科研交流(如组会汇报)中,利用AI适度“美化”一下文本或论述,其实并不会对科学知识体系造成实质性危害。
18. 由于无法预知AI每一次输出的质量边界,我在依赖它推进科研进度时,总会隐隐感到一种“失控”的担忧。
19. 我常常担心AI固有的“幻觉”会在不知不觉中引入隐蔽的事实错误,影响我研究的严谨性。
20. 我会通过多次更换提示词(Prompt)或施加逻辑压力,测试AI输出结论的一致性。
21. 对于AI提供的引文与核心数据,我会切换到知网、WOS等专业数据库进行独立的人工比对。
22. 我会故意设定反向条件或极端假设,对AI 生成结果的鲁棒性与逻辑一致性进行压力测试。
23. 对于AI辅助生成的关键方案或结果,我会尝试用传统的科研方法亲自进行复现。
更多问卷 复制此问卷