数字化浪潮席卷全球,人工智能正以前所未有的广度与深度融入经济社会,成为推动社会进步的重要力量。然而,随着AI在各领域的广泛应用,由其引发的安全、隐私和伦理问题也逐渐浮出水面,成为社会各界关注的焦点。而在2026年的政府工作报告中也提出,要完善人工智能治理。
今年两会,全国人大代表,海尔集团董事局主席、首席执行官周云杰带来4份建议,内容涉及新型工业化、人工智能、人口老龄化、科普教育等领域。针对人工智能治理这一热点,他提交了《关于应对人工智能应用的安全、隐私和伦理等挑战的建议》,从标准体系、技术源头、治理生态三大维度提出解决方案,呼吁为人工智能高质量发展系好“伦理安全带”。
直面挑战:智能时代的“三重隐忧”
中国互联网络信息中心发布的第57次《中国互联网络发展状况统计报告》显示,截至2025年12月,我国生成式人工智能用户规模达6.02亿人,普及率升至42.8%。人工智能在制造、家居、金融、医疗等多个领域实现深度应用,但技术爆发式增长背后的安全、隐私与伦理挑战也日益凸显,成为制约产业健康发展的关键瓶颈。
周云杰认为,AI带来的不仅是技术迭代,更重要的是深刻的社会系统重组,其关键不在于“用不用”,而在于“怎么用”。他在调研中发现,AI应用的具体挑战体现在技术、场景、体系三个层面:
在技术层面,存在技术滥用与责任主体缺失的问题。自动化决策、生成式人工智能等技术的滥用,已催生出网络诈骗、知识产权侵害等社会问题。此外,在自动驾驶、医疗机器人等物理交互场景,算法的安全容错率极低,事故发生后的责任归属如何在开发者、部署者、使用者之间界定,成为法律与伦理的真空地带。
在场景层面,全球文化差异与行业多样性增加治理复杂性。不同国家和地区在价值观、伦理道德、法律制度上存在显著差异,导致人工智能的合规侧重点和应对策略各不相同,跨国企业人工智能全球应用面临文化冲突和合规挑战;不仅如此,不同垂域行业对人工智能的风险容忍度、合规要求、透明度等也存在差异,例如,医疗行业重视隐私与准确性,单一的技术方案和治理模式难以适配所有业态。
在体系层面,人工智能治理体系适配性与协同效能不足。在供给侧,基础模型原生可信体系设计不完善,对于伦理、幻觉、对抗、价值观、可解释性等模型原生防护能力不足;在应用侧,不同产业业态伦理风险差异明显,缺乏细分领域差异化监管标准;在治理侧,跨部门、跨领域治理协同难度大,人工智能的复合型人才短缺,难以有效支撑人工智能创新发展。
三维共治:系好人工智能“伦理安全带”
习近平总书记强调:“要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则”。人工智能发展不可以脱缰,行业应对的核心在于“以治理促发展、以可信促基石、以生态谋共赢”。为此,周云杰提出三点建议:
一是健全人工智能标准体系,明确多元治理责任。建议由国家网信办牵头,联合工信部、科技部等相关部委,建立分级分类、风险导向的管理体系,鼓励重点行业联盟牵头制定垂直领域的安全与伦理专项标准及实践指南,通过柔性立法与动态标准,既守住合规底线,又为创新留下空间。
二是强化技术源头防控,推动供给侧原生可信能力建设。建议由科技部、工信部牵头,聚焦安全左移、原生可信的理念推动基础模型原生合规能力建设,集中力量重点突破幻觉治理、深度伪造鉴别、对抗攻击防护、算法可解释性等核心防护技术,打造原生可信的基础模型。
三是构建共治生态,试点建立“监管沙盒”并强化行业自律。建议在人工智能产业聚集区,选取金融科技、医疗、智能汽车等领域,联合开展“监管沙盒”试点,小范围测试并观察风险、迭代规则,探索包容审慎的监管新模式;同时,指导成立由龙头企业发起的“伦理治理联盟”,形成政府监管、企业自律、社会监督、公众参与的多元共治良性生态。
唯有筑牢伦理底线,人工智能才能真正成为构建“有温度的智能社会”的积极力量,推动社会稳健步入一个人机和谐共生、科技真正向善的美好未来。
本文地址:http://www.chinaxhk.net/keji/59670.html - 转载请保留原文链接。| 免责声明:本文转载上述内容出于传递更多信息之目的,不代表本网的观点和立场,故本网对其真实性不负责,也不构成任何其他建议;本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。 |















