您好, 访客   登录/注册

智能产业变革呼唤产业伦理规范

来源:用户上传      作者:

  且不论美国政府把人工智能与价值观联系在一起的新闻背后有着怎样的逻辑,其做法至少具有一个效果,就是将人工智能的伦理问题显性化。人工智能的任何发展,恐怕都不可能将伦理问题作为可有可无的点缀。
  2019年初,美国总统特朗普签署行政命令,正式启动美国人工智能计划。当时白宫发文称:“美国是人工智能的早期开发者,也是这一领域的国际领导者,并且在人工智能的发展中获益匪浅。然而,随着全球人工智能创新步伐的加快,美国不能无所作为。美国必须确保人工智能的发展继续受到美国人在知识上的推动,同时,还应反映美国的价值观,并为美国人民的利益服务。”较少被人们所关注的是,人工智能的发展,在白宫看来,与价值观紧密相关。
  2020年初,特朗普政府发布了一份旨在限制人工智能软件出口的条例。根据这份条例,出口某些地理空间图像软件的美国公司必须申请许可,才能将上述软件发送到海外(加拿大除外)。文件显示,应用于智能化传感器、无人机、卫星和其他自动化设备的目标识别软件(无论民用或军用)都在限制范围之内。而限制这类人工智能软件的出口,是美国防止敏感技术被对手国家掌握的手段之一。实际上,新近这份条例是美国商务部根据2018年的一部法律的要求而最终敲定的第一项措施,该法律要求商务部制定具体规则,出于确保经济和安全的目的,加强监管出口敏感技术的力度。
  美国政府针对人工智能与价值观、安全的新闻其实不止这些。关于其背后的逻辑有各种说法,其中不乏从国际竞争或者一些恶意的角度来考虑。笔者个人认为,美国的做法至少具备了一个效果,就是将人工智能的伦理问题显性化。任何关于人工智能的发展,恐怕都不可能把伦理问题作为可有可无的点缀。
  在传统的技术治理领域,比较主要的是针对大规模杀伤性武器的治理,或者是针对生命医学技术的治理,由于有广泛达成的“禁区”,因此治理相对容易控制。但是人工智能是复杂的技术群,而且具有平台性,因此对于人工智能的开发和应用,其针对性的伦理治理,就更具复杂性。正因为人工智能的伦理具有极大的复杂性和不确定性,目前还是学术界和政策界广泛讨论的议题。实际上,目前人工智能的伦理还没有达成广泛的共识。但是美国的种种做法(实际上欧盟的措施更多),倒逼这一领域的研究必须加速。
  人工智能的伦理问题中,现在讨论比较多的是“电车难题”,这是人工智能带来伦理问题的经典问题。从细分问题的角度,根据目前学术界和智库的研究,基于人工智能的技术特点和应用效应,其人工智能的伦理问题主要包括技术本身的伦理问题,尤其是数据伦理和算法伦理,也包括技术应用后的社会影响等方面的间接伦理问题,比如数据、算法和产品伦理。
  数据伦理。人工智能当前的主流技术路线依赖数据的“喂养”,所以如何占有数据和使用数据,包含了很多伦理要求。但是由于各国、各地区的法律传统、文化背景不同,围绕这一问题出现了很多争论。尤其个人数据与隐私息息相关,而隐私问题又具有价值观和意识形态属性,所以成为很多国家和地区建立伦理或者法律规则的重要领域。
  算法伦理。当前人工智能主要技术路线是深度学习,但是深度学习是机器来学习,机器在学习过程中产生了跟人的学习和决策不一致的地方,也存在伦理问题。比较专业性的关于伦理问题的讨论有公平性(fairness)、责任性(faccountability)和透明性(transparency)等。公平性的问题——比如用算法来筛选简历是不是對一些人不公平,责任性的问题——比如无人汽车出事到底谁来负责,透明性的问题——比如“大数据杀熟”。
  产品伦理。对于制造业来说,智能产品的安全问题尤其重要。一旦机器学习等算法嵌入到物体中,成为新型产品,就必须有伦理的约束。“电车难题(Trolley Problem)”是伦理学领域最为知名的思想实验之一,大致内容是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉拉杆?而人工智能时代,遇到这种情况机器应该怎么选择?
  当然,制造业随着人工智能的应用,也会面临工作岗位调整的问题。随着人工智能不可避免地取代人类的一些工作,工作形态、工作场所等相关方面都会发生变化。这意味着必须对大量劳动者进行再培训,传统的教育体系也需要改革。还有,如果机器人不纳税,人工智能对公共财政也将产生大的影响。这些问题背后也蕴含着伦理问题,那就是,凭什么让机器来替代人的岗位?
转载注明来源:https://www.xzbu.com/1/view-15136099.htm