《人工智能通用大模型(ChatGPT)的进展、风险与应对》研究报告(全文)
2023年2月23日,华东政法大学政治学研究院和人工智能与大数据指数研究院在上海正式发布《人工智能通用大模型(ChatGPT)的进展、风险与应对》研究报告(以下简称《报告》),并采取线上线下相结合方式举办报告发布会暨研讨会。该报告聚焦以ChatGPT为代表的人工智能通用大模型及其社会影响,在深入分析其发展现状的基础上,对于各类治理风险进行总体评估,并提出应对风险的策略与具体建议。
《报告》指出,ChatGPT代表了人工智能通用大模型的最新进展,显示了大模型的巨大影响力。一般而言,大模型是指容量较大、用于深度学习任务的模型,通常具有海量的参数和复杂的架构,具有涌现性、扩展性和复合性的特征。从发展历程来看,大模型经历了单语言预训练模型、多语言预训练模型与多模态预训练模型的发展阶段。在发展过程中,大模型呈现出“大模型”和“小模型”协进、通用化与专用化并行、平台化与简易化并进的发展趋势。
《报告》对于当前各国发展通用大模型的能力进行了比较分析,指出美国作为传统的科技强国,在大模型发展方面具有显著的优势,美国各巨头科技公司均有相关雄厚的技术资源和能力。中国虽然在大模型发展上正在迎头赶上,各科技公司纷纷加入了大模型开发和应用的队伍,但总体而言,与美国相比仍然存在一定的差距。同时,《报告》还从原创能力、技术配套、制度环境三个主要方面详细分析了中美之间的发展差距和具体影响因素。
在此基础上,《报告》深入评估了通用大模型的发展和应用场景扩散给人类社会带来的治理风险和挑战。例如,在技术方面,大模型存在着鲁棒性不足、可解释性低、算法偏见等风险;在社会方面,大模型可能加剧数字鸿沟、侵犯个人隐私、诱发网络犯罪、冲击教育体系;在经济方面,大模型将加速寡头垄断、推动产业结构重塑、替代传统就业、推动世界分工的重组;在政治方面,大模型将给政治决策、舆论引导、监管机制与国际关系带来新的冲击。
《报告》针对通用大模型可能造成的治理风险提出前瞻性应对策略。从构建法律之治、增强竞争能力、加强市场应用、防范失业风险、推动教育改革、维护政治安全等方面,提出应对风险的具体原则、制度建构和相关举措。
具体内容如下:
责任编辑:张薇