用户中心

资讯 > 现场总线

“信息茧房”、隐私外泄,如何应对人工智能带来的伦理风险?

www.cechina.cn2022.09.06阅读 1945

  过去十几年里,人工智能技术取得了长足进步CONTROL ENGINEERING China版权所有,应用到各行各业之中,并带来生产力的大幅提升。不过,在具体实践中,人工智能的应用也暴露出侵犯数据隐私、制造“信息茧房”等种种伦理风险。
  尤瓦尔·赫拉利在畅销书《未来简史》夸张地预言,智人时代可能会因技术颠覆,特别是人工智能和生物工程技术的进步而终结,因为人工智能会导致绝大多数人类失去功用。
  尽管危言耸听CONTROL ENGINEERING China版权所有,但赫拉利无疑为人类敲响了一面警钟。人工智能发展带来的伦理风险需要也正在被越来越多的国家重视。我们要警惕技术带来的哪些风险?需要采取什么样的措施未雨绸缪呢?

  人工智能带来的伦理挑战
  信息茧房:用户被算法圈住,受困于狭窄的信息视野:
  过滤气泡(Filter Bubble),即根据用户喜好提供展示内容,网站内嵌的推荐算法会透过使用者所在地区、先前活动记录或是搜寻历史,推荐相关内容。社交媒体网站从千百万用户那里获得的使用数据,会构成无数个过滤气泡的小循环。
  回声室效应(Echo Chamber),在社交媒体所构建的社群中,用户往往和与自己意见相近的人聚集在一起。因为处于一个封闭的社交环境中,这些相近意见和观点会不断被重复、加强。
  数据隐私:数据隐私引发的人工智能伦理问题,今天已经让用户非常头疼。例如,尽管很多国家政府出台过相关法案、措施保护健康隐私,但随着人工智能技术的进步,即便计步器、智能手机或手表搜集的个人身体活动数据已经去除身份信息,通过使用机器学习技术,也可以重新识别出个人信息并将其与人口统计数据相关联。
  算法透明性与信息对称:用户被区别对待的“大数据杀熟”屡次被媒体曝光。在社交网站拥有较多粉丝的“大V”,其高影响力等同于高级别会员,在客服人员处理其投诉时往往被快速识别,并因此得到更好地响应。消费频率高的老顾客,在网上所看到产品或服务的定价,反而要高于消费频率低或从未消费过的新顾客。
  歧视与偏见:人工智能技术在提供分析预测时,也曾发生过针对用户的性别歧视或是种族歧视的案例。曾经有企业使用人工智能招聘。一段时间后,招聘部门发现,对于软件开发等技术职位,人工智能推荐结果更青睐男性求职者。
  深度伪造(Deepfake):通过深度伪造技术,可以实现视频/图像内容中人脸的替换,甚至能够通过算法来操纵替换人脸的面部表情。如果结合个性化语音合成技术的应用,生成的换脸视频几乎可以达到以假乱真的程度。目前利用深度伪造技术制作假新闻、假视频所带来的社会问题越来越多。
  全球人工智能伦理法律体系建设
  现阶段,全球范围内许多国家都认识到制定人工智能治理框架的必要性,但这一框架的制定也面临着以国家间文化多样性为基础的道德多元化的挑战。
  01人工智能伦理设置原则
  牛津大学学者Luciano Floridi和Josh Cowls在2019年哈佛数据科学评论杂志上发表的文章中提出了如今被学术界广为认可的AI伦理五原则:行善(Beneficence)、不伤害(Non-maleficence)、自治(Autonomy)、正义(Justice)以及算法可解释性(Explacability)。其中,前四项由传统的生物伦理原则沿用而来,最后一项则是针对人工智能算法而提出的新原则。五项总体AI核心原则后来又被衍生出更多细化的分支:
   1  / 行善
  增进人类福祉(well-being);社会利益(social good); 共同利益(common good)
  2  / 不伤害
  隐私(Privacy);安全(Security);正直 (Integrity)
  3  / 自治
  自主决定权(Autonomy);选择权(Choice);知情同意(Consent);自由(Freedom)
  4  / 正义
  避免不公平(Avoid unfairness);不歧视与不偏见(non-bias/non-discrimination)
  5 / 可解释性
  明确的问责(Accountability);透明性(Transparency)
  近年来,技术界也越来越关注AI伦理问题。全球人工智能顶会IJCAI、NeurIPS、AAAI上出现了越来越多的AI伦理论文,话题范围涉及AI可解释性,安全AI,隐私与数据收集,公平与偏见等。而在近20年以来各个大型AI会议上提及伦理关键字的论文标题的数量都在逐年增加。
  02欧盟,人工智能伦理立法先驱
  2015年1月欧盟议会法律事务委员会(JURI)成立专门工作小组,开始研究机器人和人工智能发展相关的法律问题;2019年4月,欧盟委员会发布了正式版的人工智能道德准则《可信赖人工智能的伦理准则》,提出了实现可信赖人工智能(Trustworthy AI)全生命周期的框架。该准则提出,可信赖AI需满足3个基本条件:
  1合法的(lawful), 即系统应该遵守所有适用的法律法规;
  2合伦理的(ethical),即系统应该与伦理准则和价值观相一致;
  3稳健的(robust),不管从技术还是社会的角度来看,AI系统都可能会造成伤害。所以系统中的每个组件都应该满足可信赖AI的要求
  对于AI从业者,该准则包含四项道德原则,确保AI从业者以值得信赖的方式开发、部署和使用人工智能系统:
  尊重人的自主性(respect for human autonomy):人类与人工智能系统之间的功能分配应遵循以人为本的设计原则,并为人类选择留下有意义的机会。
  预防伤害(prevention of harm):人工智能系统及其运行的环境必须安全可靠,确保不会被恶意使用。弱势群体应得到更多关注。还必须特别注意人工智能系统可能由于权利或信息不对称而导致或加剧不利影响的情况。
  公平性(fairness):人工智能系统的开发、部署和使用必须是公平的,公平体现既有实质性的也有程序性的。
  可解释性(explicability):可解释性对于建立和维护用户对AI 系统的信任至关重要:流程需要透明、人工智能系统的能力和目的需要公开沟通、并且决策(在可能的范围内)可以向直接和间接受影响的人解释。有时候,解释为什么一个模型产生了一个特定的输出或决策并不总是可能的。这些情况被称为“黑盒”算法,在这些情况下,需要其他可解释性措施,例如,系统功能的可追溯性、可审计性和透明通信等。
  2018年5月25日,欧盟《通用数据保护条例(GDPR)》 正式生效。这一条例明确定义了个人数据及其适用范围,为数据保护提供合法性基础,并明确了数据主体权利、数据控制者义务、数据流通标准、数据救济和处罚等,已经成为全球众多国家与地区制定数据保护条例的重要参考。
  之后,欧盟又陆续颁布了更多的数据相关法案。2020年2月欧盟发布《数据战略》,带来数据治理的整体规划,按照其规划,又相继于2021年末至2022年初密集发布了一系列数据法案,包括《数据治理法案(DGA)》、《数据服务法案(DSA)》、《数据法案(DA)》、《数据市场法案(DMA)》等。
  中国人工智能伦理立法稳步推进
  2017年7月,中国国务院发布了《新一代人工智能发展规划》。规划呼吁,不仅要重视人工智能的社会伦理影响,而且要制定伦理框架和伦理规范,以确保人工智能安全、可靠、可控发展。
  2018年1月,在国家人工智能标准化总体组的成立大会上发布了《人工智能标准化白皮书2018》。白皮书论述了人工智能的安全、伦理和隐私问题,认为人工智能技术需遵循的伦理要求设定要依托于社会和公众对人工智能伦理的深入思考和广泛共识上,并遵循一些共识原则。
  2019年2月,科技部在北京召开新一代人工智能发展规划暨重大科技项目启动会,成立了新一代人工智能治理专业委员会。同年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则》。
  《治理原则》提出,为发展负责任的人工智能,人工智能发展相关各方应遵循以下原则:和谐友好,公平公正,包容共享,尊重隐私www.cechina.cn,安全可控,共担责任,开放协作以及敏捷治理。9月,专委会正式发布《新一代人工智能伦理规范》(以下简称《伦理规范》),细化落实《新一代人工智能治理原则》,将伦理道德融入人工智能全生命周期,为人工智能应用的相关活动提供伦理指引。这是中国发布的第一套人工智能伦理规范。
  相比于2019年《治理原则》中针对人工智能发展需遵循的原则,2021年发布的《伦理规范》中提出了更加细化与严谨的6项基本伦理要求:
  增进人类福祉
  坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。
  促进公平公正
  坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。
  保护隐私安全
  充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。
  确保可控可信
  保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。
  强化责任担当
  坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。
  提升伦理素养
  积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。
  2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》 (以下简称《意见》,明确指出科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是促进科技事业健康发展的重要保障。《意见》包含制定生命科学、医学、人工智能等重点领域的科技伦理规范、指南等,通过建立并完善科技伦理相关规范和标准,明确科技伦理要求;建立科技伦理审查和监管制度;提高科技伦理治理法治化水平CONTROL ENGINEERING China版权所有,同时鼓励和加强科技伦理理论研究。
  展望未来:人工智能应如何约束?
  1、平衡治理监管与产业协调发展
  尽管欧盟在规范AI伦理问题上下手早,但其过度监管也给相关市场的发展带来了限制,造成欧盟在数字产业的发展上全面落后于全球。在全球技术主权激烈竞争的背景下,立法与监管政策需要保持谨慎思考,在治理与发展之间做好平衡,在方便企业满足AI伦理风险的同时,为企业、行业以及相关产业提供充分的发展空间。
  2、针对人工智能伦理的高风险场景特别立法
  为了降低人工智能伦理执法的难度,一些国家针对特定部门/高风险应用场景单独立法。如许多国家把人工智能系统在医疗领域中应用列为需要关注的场景,在这些领域中,算法产生的结果将直接关乎人类的生命福祉。按照针对不同风险等级制定不同严苛程度的管理思路控制工程网版权所有,可以通过分场景监管,做到有收有放,进而实现治理与发展的平衡。
  3、提升科研机构和企业对人工智能伦理的认知及自律
  在规避人工智能可能产生的伦理风险上,科研机构和企业更容易在相关实践中获得第一手信息,也更应该承担起构建安全人工智能技术的主要责任。
  4、提高全社会科技伦理意识
  伦理问题涉及到社会行为准则与规范,而治理伦理问题则需从公共管理的角度出发,在充分了解人工智能技术所带来的潜在社会影响,找到相对应的解决办法,并形成社会对人工智能伦理的共识。建议利用各种渠道广泛的进行科技伦理宣传、活动与交流,提升公众的科技伦理意识,进而加强全社会对人工智能伦理的广泛监督。
版权声明:版权归控制工程网所有,转载请注明出处!

频道推荐

关于我们

控制工程网 & CONTROL ENGINEERING China 全球工业控制、自动化和仪器仪表领域的先锋媒体

CE全球

联系我们

商务及广告合作
任小姐(北京)                 夏小姐(上海)
电话:010-82053688      电话:18616877918
rendongxue@cechina.cn      xiashuxian@cechina.cn
新闻投稿:王小姐

关注我们的微信

关于我们 | 网站地图 | 联系我们
© 2003-2020    经营许可编号:京ICP证120335号
公安机关备案号:110102002318  服务热线:010-82053688