让AI为人专心谋福利 ESG可以出把力

2025年02月10日07:30

来源:中国证券报

  在AI快速发展和普及的背景下,伴随着技术进步而来的还有信息安全与隐私保护、自然资源消耗、算法歧视、替代人工、商业垄断等治理挑战,同时这些议题还体现了技术的两面性。世界经济论坛最新发布的《2025年全球风险报告》显示,错误信息和虚假信息连续第二年成为全球最大的短期风险。2024年8月,欧盟《人工智能法案》正式生效,全球对人工智能风险的治理已经提上日程。从ESG视角来看,AI大模型行业包含了算力、算法、数据三大要素,需要从法律法规、行业倡议到企业内部治理等多个层面逐渐搭建AI治理体系。

  信息安全风险显现

  人工智能发展带来的深度伪造技术让网络世界的错误信息和虚假信息日渐增多。人们发现AI合成的知名医生张文宏在网络视频中带货,犯罪分子利用人工智能变脸冒充公司高管并骗取员工2亿港元,专业团伙利用ChatGPT制作情绪饱满、博取眼球的假新闻。

  “人工智能高速发展给人们对网络世界虚假信息的识别带来严峻挑战。”中国人民大学新闻学院副教授方洁说,“人们对所处环境作出判断,依赖一个真实可信的信息传播系统,但现在人们经常会在信息世界里面临难辨真伪的境况。”

  《2025年全球风险报告》列出了未来两年人类面临的十大短期风险,错误信息和虚假信息连续第二年排在首位,其次才是极端天气事件和国家间的武装冲突。

  人工智能技术尤其是自然语言处理(NLP)和生成对抗网络(GANs),使得虚假信息的生成和传播变得更加容易和高效。深度伪造技术可以生成逼真的虚假图片、视频、音频,误导公众,诱发诈骗行为,甚至影响社会秩序。据网络安全公司奇安信统计,2023年基于人工智能的深度伪造欺诈事件数量激增3000%,AI钓鱼邮件数量增长1000%。

  “人工智能带来的技术变革会对监管部门、互联网平台、媒体、网络用户都带来影响。令人头疼的是,利用人工智能生产虚假内容的成本很低,但人们识别虚假信息的成本却要高得多。”方洁说。

  据报道,韩国警方近日宣布将投资91亿韩元,开发可以查出深度伪造文件和虚假信息的系统,应对利用人工智能生成图像和声音犯罪激增的情况,开发工作预计在2027年底完成。

  此外,人工智能发展还会带来新的网络安全风险,奇安信董事长齐向东表示,具体包括数据信息安全风险、认知安全风险和基础设施安全风险。人工智能技术演进依赖大量数据训练,这些数据往往包含敏感的个人信息,如果数据保护措施不到位,可能导致数据泄露和隐私侵犯。此外,AI系统本身也可能成为网络攻击的目标。

  相关风险暴露的原因是人工智能时代正加速到来,并且超越了互联网时代的发展速度和影响力。

  中国互联网络信息中心去年11月发布的《生成式人工智能应用发展报告(2024)》显示,我国生成式人工智能产品用户达2.3亿人,人工智能核心产业规模接近6000亿元。投行数据显示,2024年三季度全球近三分之一的风险投资资金流向了人工智能领域。

  人工智能大模型成为时代的新底层生产工具。被称为“百模大战”的人工智能竞技大赛已然开启,参与者涵盖了从科技巨头到初创企业。国际市场上,有谷歌的Gemini、微软的OpenAI以及Meta的LLaMA等大模型。在国内市场,百度的文心一言、阿里巴巴的通义千问、腾讯的混元、字节跳动的豆包、科大讯飞的星火等纷纷加入大模型发展浪潮。此外,DeepSeek、智谱AI、MiniMax、Kimi、零一万物等初创企业研发的大模型也已崭露头角。

  随着硬件优化和算法改进,大模型的训练和推理成本持续下降,使得AI技术能够更快渗透到中小企业乃至个人开发者中,推动大模型应用从通用场景向垂直行业拓展,如医疗、金融、法律、交通等各个领域。

  人工智能治理议题的两面性

  ESG重视企业对社会的影响。从ESG视角分析不同行业企业的重要性议题,按照行业特性会有差异,而人工智能的重要性议题跨越了不同行业。

  “人工智能有三个关键要素,算力、算法、数据,既有软件行业的特质,也有芯片、存储设备等算力基础设施的特质,还有互联网行业的特质。”中央财经大学绿色金融国际研究院副院长、中财绿指首席经济学家施懿宸对记者表示,人工智能企业需要关注的重要性议题包含了算力基础设施需要关注的碳排放、能源消耗、水资源使用等环境维度议题,也包含了软件和互联网行业需要重视的信息安全与隐私保护等社会维度的议题。此外,人工智能企业还需要关注算法透明度,以避免算法歧视。

  “这些议题中,信息安全与隐私保护的议题可以沿用互联网行业的思路,通过技术和法律手段加以解决,同时需要企业自我约束和平台的监管。”施懿宸说。据了解,OpenAI将GPT-4模型引入内容审核系统,提高内容审核效率。德国基尔大学科学家近期研制出一款新型人工智能工具,可以精准识别出虚假新闻。腾讯旗下朱雀实验室也推出了朱雀AI大模型检测系统,帮助用户识别AI生成的文本与图像。

  算法歧视则来自人工智能决策过程所依赖的历史数据,人工智能算法可能会延续甚至放大历史数据中的偏见。例如,亚马逊曾用人工智能工具筛选人才,发现这一筛选系统对女性存在偏见。为应对算法歧视问题,微软开发出一套系统工具,用来判断人工智能算法是否存在偏见。微软、谷歌、IBM等企业都曾设置对人工智能进行伦理审查的治理机构和相应机制,商汤科技也成立了人工智能伦理与治理委员会。

  而在另外一些ESG议题上,人工智能带来的影响尚难以界定,并呈现出技术的两面性。例如,人工智能的训练过程需要消耗大量能源与水资源,但它同时能应用于提升能效、节约能源、保护环境、应对气候问题等领域。有研究人员估算,训练GPT-3所需的清水量相当于填满一个核反应堆的冷却塔所需的水量。另有研究称,GPT-3大模型每次训练耗电量为1287兆瓦时,能支撑3000辆特斯拉电动汽车共同开跑,每辆车跑20万英里。

  但同时,在黄河上游的羊曲水电站,人工智能与大数据技术构建的数字孪生智慧电厂助力新能源发电站平稳运行。中国电信通过自研AI节能系统,年均节电8亿度,节省电费5.2亿元。微软推出低成本的人工智能工具,帮助解决与水、农业、生物多样性和气候变化相关的环境问题。

  在替代人工议题上,人工智能的应用引发了网约车司机等群体对就业前景的担忧,但同时其也在劳动强度高、危险性强的工作中开始发挥作用。例如,泰科电子应用人工智能技术,在快速运转的流水线上精准检测连接器产品的瑕疵,避免了员工的高强度工作。万勋科技生产的软体机器人借助人工智能赋予的性能,进行大厦外墙和风力发电机叶片的高空清洗,替代人工完成具有高度危险性的工作。

  “人工智能使自动驾驶技术快速发展,而无人驾驶让人们出行更方便甚至更安全,但也可能让网约车行业受到影响。”施懿宸表示,在技术发展推动社会变革过程中,需要监管机构、企业、公众、媒体等各方不断沟通,形成具有共识的基本原则与行业倡议,保障社会转型过程中的公平。

  如何约束与治理

  德勤中国可持续发展研究院院长谢安认为,从ESG角度来看,建立健全人工智能治理体系,需要国家、行业和企业的多层次协同,共同推动人工智能的健康有序发展。

  在国家层面,政府应制定全面的法律法规和伦理指引,为人工智能的发展提供制度保障。例如,中共中央办公厅、国务院办公厅2022年出台的《关于加强科技伦理治理的意见》,为科技伦理治理提供了明确的指导。此外,国家网信办联合国家发改委、科技部、工信部等部门2023年联合发布的《生成式人工智能服务管理暂行办法》也对生成式人工智能服务的规范应用提出了具体要求。

  国际上,欧盟《人工智能法案》2024年8月正式生效,并于近日发布了更详细的条款,规定企业若滥用人工智能技术对用户进行潜意识操控、欺骗误导,区别对待个人或群体,抓取用户面部信息等,都有可能面临高额处罚。

  在行业层面,谢安认为,各行业应结合自身特点,制定人工智能伦理指引和标准。例如,中国人民银行2022年发布的《金融领域科技伦理指引》,为金融行业的人工智能应用提供了具体的伦理规范。其他关键行业,如医疗等,也应制定相应的伦理指引。在企业层面,企业应建立完善的人工智能内部治理体系,确保AI技术安全合规应用。

  此外,业内人士认为,相关部门需要提前研判,优化公共治理体系。大力发展人工智能衍生行业,如人工智能风险管理机构,以人工智能为基础的服务业、教育培训业等;在全社会健全职业生涯终身培训体系,为低技能劳动者提供便捷的新技术培训服务,增加他们的就业机会。


编辑:林辉

我来说两句 0条评论 0人参与,