人工智能时代的秩序困境与治理文档格式.docx
- 文档编号:19267610
- 上传时间:2023-01-04
- 格式:DOCX
- 页数:9
- 大小:409.46KB
人工智能时代的秩序困境与治理文档格式.docx
《人工智能时代的秩序困境与治理文档格式.docx》由会员分享,可在线阅读,更多相关《人工智能时代的秩序困境与治理文档格式.docx(9页珍藏版)》请在冰豆网上搜索。
如何理解人工智能带给人类世界的机遇和挑战,如何认识人工智能引发的一系列社会影响和治理困境,如何确立人工智能时代精准治理的方向与原则,既是一个重大的理论课题,也是一个迫切的现实难题。
2、人工智能时代:
大幕初启的数字革命
人工智能,顾名思义,是指通过软硬件的结合使机器具有一定程度的类人智慧、思维和行为。
这一概念与内涵也在随着应用范围和相关学科的发展而变化。
但毫无疑问,这是一个被高度关注、广泛使用且正在飞速发展的新兴领域。
[2]
20世纪40年代,图灵提出著名的“图灵测试”:
“如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么称这台机器具有智能。
”[3]随后,在香农和冯·
诺伊曼的努力下,现代信息论和计算机科学的理论根基得以确立。
在1956年美国的达特茅斯会议上,人工智能概念和研究领域被正式提出。
自20世纪60年代起,人工智能大体经历了两大发展阶段:
一是弱人工智能阶段,依靠单台机器或小型局域网络,只能完成简单的程序和任务;
二是强人工智能阶段,全球互联,大数据全覆盖,终端云端协同运作,云存储云计算同步开启,已经具备近人类的思考方式和处理复杂任务的能力。
[4]
近些年来,人工智能技术的革新更加突飞猛进,某些领域的发展水平已达到了前所未有的高度。
1997年5月,IBM计算机“深蓝”轻松战胜国际象棋世界冠军卡斯帕罗夫。
2016年3月,谷歌“阿尔发狗”(AlphaGo)战胜围棋冠军李世石。
次年5月,再度战胜排名世界第一的世界围棋冠军柯洁。
虽然“阿尔发狗”是否代表人工智能发展方向这一问题还有争议,但人们比较认可的是,它象征着计算机技术已进入人工智能的新信息技术,其特征是大数据、大计算、大决策,三位一体。
它的智慧正在接近人类。
2017年10月18日,DeepMind团队公布了最强版的AlphaGoZero,它的独门秘籍是“自学成才”,从零基础开始学习围棋短短3天后就以100:
0碾压了第二个版本的“旧狗”(战胜李世石的那版)。
2005年5月,美国斯坦福大学研制的无人驾驶汽车在沙漠中行驶了132英里,开启了无人驾驶汽车的新时代。
2014年5月,Google正式推出的新型无人驾驶汽车开始路测。
2015年2月,英国的无人驾驶汽车也正式亮相。
据统计,2014年至今,全球范围内与自动驾驶技术相关的投资、合伙、并购多达200多项,涉及总额高达1000亿美元。
[5]以互联网科技先锋自居的英特尔,早在2017年1月美国GES展会上就高调宣布与奔驰合作并将于近期推出AI驾驶汽车。
进入21世纪不到20年,从强调海量数据存储、高速计算能力的“强计算弱智能”,到依靠深度学习、大数据、云计算的“网络协同强智能”,人工智能提升到了一个崭新的高度和水平。
有学者认为,人类社会即将迎来继哥白尼革命、达尔文革命和神经科学革命之后的“第四次革命”。
[6]
人工智能在生产领域中的应用,为新一轮产业结构升级提供了助力。
借助互联网+和工业4.0,人工智能以替代人工或与人工合作的方式,大幅提高了劳动生产率,深度重构了信息链和产业链,对传统的价值创造和分配方式构成了重大影响。
虽然当前的人工智能还不具备自我升级、自主创造的能力,但它对人类的生产和生活带来了巨大的冲击和挑战。
未来社会的发展不可能无视人工智能的作用与功能,这意味着,新一轮的创新运动势必被强势激发。
当今世界各国高度重视人工智能的研发与应用,尤其是人工智能战略的发展。
2014年6月,日本政府出台《日本复兴战略》后火速启动“机器人革命会议”。
2015年1月,安倍首相提出要“通过规制改革实现机器人无障碍社会,确立世界最高水准的人工智能技术”,并声称2015年是“机器人革命元年”。
[7]2015年,日本政府公布《机器人新战略》,重点规划了未来以机器人为轴心的人工智能发展目标。
[8]2016年10月31日,美国先后发布《国家人工智能发展与研究战略报告》(TheNationalArtificialIntelligenceResearchandDevelopmentStrategicPlan)和《为人工智能的未来做好准备》(PreparingfortheFutureoftheArtificialIntelligence)两份报告,对人工智能发展的现状和前景展开深度分析,正式宣告美国人工智能的发展战略。
我国对人工智能的发展历来高度重视。
20世纪70年代末人工智能的研发和制作就已启动。
进入21世纪,我国对人工智能的重视程度更加提高,对技术研究和应用发展的支持力度也逐步加大。
例如计算机视觉、语音识别和语言处理等技术的发展水平,已然稳居世界先列。
2017年,国务院发布《新一代人工智能发展规则》[9],引起国际社会高度关注。
某种程度来讲,2017年是“人工智能元年”。
它标志着,人工智能已实现跨越式发展,人类既有的认知、伦理和法律体系正面临前所未有的挑战。
一个“后人类时代”正在缓步走来。
未来,智能机器将参与甚至自主承担越来越多的关乎伦理、法律的决策和行动,人类的生存安全以及思考决策的权威地位可能受到威胁。
一旦人工智能成长为独立的、自我约束型的“道德主体”,人类的本质都可能面临重新界定和书写。
这无疑是重大的时代性人文命题。
“人工智能领域是当前人类所面对的最为重要的深刻技术和社会变革,是网络时代、大数据时代之后的新的人类社会形态在社会主体层面维度的反映。
人工智能在深刻改变人类物质生产体系的同时,也将深刻改变人类的社会关系与社会行为。
”[10]
3、人工智能引发的秩序困境
当今世界,人工智能的应用已经相当广泛。
普通人的日常生活,正在不可避免地被智能机器影响、左右甚至重构。
不知不觉间,人们的学习、工作、购物,甚至寻友、旅行、炒股,已经离不开智能软件和智能机器。
许多过去只能由人类才能胜任的复杂工作,正在让位给智能机器;
而一些人类无法承受、无法逾越、无法胜任的高危险难领域,智能机器正在扮演越来越重要的角色。
越来越多的人们意识到:
人工智能越发展、越进步,人们对它的依赖程度越高、依赖范围越广。
是否应该接受人工智能已经不是一个问题,人们要回答的是,如何应用人工智能造福人类,并及时应对人工智能带给传统安全、法律、道德和政治等观念和现实的冲击与挑战。
在伊隆·
马斯克(ElonMusk)看来,人工智能是对人类生存最大的威胁,开发能思考的机器就像在“召唤恶魔”。
史蒂芬·
霍金(StephenHawking)则认为,全面的人工智能将意味着人类这一种族的灭亡。
就连比尔·
盖茨(BillGates)也对超级智能感到无比担忧,他担心超级智能再需几十年就会诞生。
[11]
那么,人们不禁会问:
人工智能为何让人类如此忧虑?
人工智能的迅猛发展会有哪些风险和不确定性?
会引发哪些社会危机和秩序困境?
安全困境。
首先是两种极端形式的安全隐患:
超级智能和“人工愚蠢”。
超级智能是指某些人工智能在某些特定领域拥有超级的能力,如一些超级计算机,它们的计算速度是惊人的,从而造成了某些不可控的后果。
例如,证券交易所中用于自动执行股票交易的人工智能系统,执行时间以纳秒为单元。
由于这些交易行为的发生速度很快,一旦出现问题,人类根本无法及时干预。
更可怕的是这些智能机器不用吃饭、不用休息,理论上可以不间断地永久工作。
此外,这些超级智能的运行往往存在一些“黑箱”般的不透明性。
如对于先进神经网络与基因算法,人类早已放弃了试图理解其何以能够有效执行如此复杂的任务。
当今社会,人工智能承担和处理的任务在不断增长。
人工智能可以轻松地设计新城市草图、监控银行帐户安全、执行具有重大经济影响的金融交易,甚至在同一时刻自动驾驶成百上千台自动汽车……这些都是寻常人力所不能及的。
“我们已经无法控制计算速度快于人类大脑百万倍的机器,在可预见的未来,这个速度将持续增长。
”[12]“人工愚蠢”是人工智能的反义词,意指简单规则下的人工智能的失败。
有些学者认为,人工智能真正的威胁恰恰在于“人工愚蠢”,例如一个被设定了固定程序的计算机会无条件地执行命令,迅速完成某项单一工作内容。
一旦程序失误,智能机器就会无限地重复生产和制作动作,这将造成大量的资源浪费。
2011年4月,亚马逊网站上一本不再出版的图书《苍蝇的成长》出乎意料地与自己打起了价格战。
这本书有两个版本,原来售价为35至40美元。
有一天,它们突然分别以1730045和2198177美元销售。
仅仅数小时,价格又连续翻倍。
两周之后,书价已达到不可思议的23698655.93美元。
之所以会如此,就是因为算法规定这本书的售价必须略高于竞争对手,于是就引发了价格战,并最终将自己的价格提升到了一个荒诞的程度。
[13]2010年5月6日,美国东海岸时间下午2点42分,道·
琼斯指数“闪电崩盘”,三分钟内下跌了将近1000点,创下历史最大的单日跌幅,将近1万亿美元财富凭空蒸发。
一些股票从平时的30~40美元暴跌至0.01美元,而苹果公司股票每股从250美元激增至100000美元,不过,这些情况很快恢复正常。
[14]造成这一惊天大崩盘的罪魁祸首就是因为基于规则的简单人工智能的反馈回路被锁定。
“人工愚蠢”成功地以合法方式从人们口袋里把钱偷走了。
其次,人身安全问题。
1978年,日本广岛一家工厂的切割机器人突然失灵,将一名工人当作钢板进行切割,这是世界上第一宗机器人杀人事件。
1979年,美国密歇根州福特铸造厂工业机器人突然伸出手臂,闪电般击倒一名装配工人。
1989年,苏联国际象棋冠军古德柯夫和机器人对弈,连败3局的机器人突然释放高压电流,将一代象棋大师电击致死。
2015年,德国大众汽车制造厂一台正在被安装调试的机器人突然将装配工人击倒并碾压在金属操作板上。
2018年3月20日,一名女子周日深夜在美国亚利桑那州坦贝市横越马路时,被一辆Uber自动驾驶汽车撞死。
这是全球首例因无人驾驶车辆导致的交通事故。
最近以来,用于战争的自动人工智能武器伤人事件也屡次不鲜。
尤其是无人机的定点清除,容易带来误差导致贫民误伤。
有数据显示,2004至2012年间,美军针对阿富汗恐怖组织的无人机空袭超过300次,杀死3000余人,其中误杀的平民和儿童高达1100多人。
[15]无人机的大量滥用,给所在国带来了深重的人道主义灾难。
再次,数据安全问题。
人工智能时代是互联网、大数据和机器智能的三重叠加。
随着政府、企业和社会组织的决策越来越依赖大规模的数据收集、分析、整理和使用,传统社会越来越走向数字化、透明化和公开化。
这种技术形式使个人的隐私无处可藏、无所遁形,完全处于一种“网络裸奔”状态。
所谓隐私保护,只不过是“皇帝的新衣”罢了。
在日常生活的许多领域,人工智能产品已经与人类形成了服务与被服务、辅助与被辅助的关系,如机动车的自动泊车、轨道偏离纠正和自动驾驶技术,手机语音助手、地图导航、免密支付功能等。
当这些人工智能产品与人类进行信息交互时,如何确保使用者的信息不流失、不外泄,不被别有用心的人窃取和利用,即便上传到远程终端,依旧能够保持安全,这已经关涉到每个人的切身利益。
人工智能时代,无论是数据的收集环节,还是数据的保存环节,抑或是数据的使用环节,都存在风险。
大规模的智能机器在互联网上没日没夜、一刻不停地搜集、整理着海量的个人数据,包括姓名、性别、电话、邮箱、住址、位置等。
这些海量信息的全面追踪,经过简单的分析、归纳,完全可以勾勒出个人的个性特点、脾气秉性、饮食习惯、购物倾向、颜色偏好,甚至各种个人癖好、行踪轨迹、交往范围、性取向等私密信息。
由于系统安全漏洞、黑客恶意攻击等原因,个人数据始终面临被泄露、被窃取、被买卖等潜在的安全风险。
2007年上半年,“熊猫烧香”“金猪报喜”等一系列恶意病毒的爆发让人们首次认识到个人数据竟然可以被私下交易的黑幕。
可这仅仅是现代数据与信息安全巨大黑幕的冰山一角。
2016年9月22日,全球互联网巨头雅虎证实至少5亿用户账户信息遭人窃取。
12月,雅虎再次发布声明,宣布在2013年8月,XX的第三方窃取了超过10亿用户的帐户信息,包括用户姓名、电子邮箱、电话号码、出生日期和部分登录密码。
消息一出,全世界一片哗然。
最后,隐私安全问题。
数据是人类现代文明的基石。
大数据也是人工智能产生和发展的必要前提。
大数据的收集与整理必然需要每个人生活、工作和交往的诸多细节和信息,也势必会形成对个人隐私的威胁。
能否在利用大数据进行分析的同时,确保信息数据和个人隐私的安全,这直接影响每个公民的合法权益,间接影响公众对政府的信任和认可。
出于自身利益和高额利润的考虑,一些商家片面强调新兴智能产品的性能、优点,却对这些新设备和新技术对个人数据的动态获取避而不谈。
当前一些应用APP在为人们提供免费、便利生活服务的同时,也会自动记录、收集个人的数据信息,从而给下一步的精准推送和精准营销提供素材。
这一行为,无疑对个人财产和人身安全造成了潜在的威胁。
由此来看,人工智能时代的数据安全与隐私保护是需要高度关注的核心议题,正如艾瑞斯所说:
“隐私问题部分来说不是大数据分析的问题,它是数字化过程的阴暗面。
”[16]
法律困境。
人工智能技术的不断发展,对现有的法律体系带来了巨大的冲击和挑战。
我们能否起诉机器人?
这个以往不是问题的问题,如今却成为真正的问题。
当今时代的人们对人工智能助手寄予了极大的信任,有时超过了人们的本能和判断,甚至远远超过了设计者的信心。
2013年底,美国阿拉斯加州弗尔班克斯几位Iphone用户按照苹果地图导航指引,选择一条抵达费尔班克斯国际机场最近的路线,但没有想到这条路线竟然直穿飞机起降的跑道,险些酿成大祸,这几个人不得不面对数额不菲的罚款。
2009年10月,一位英国司机依据GPS导航,使自己冲下悬崖,撞坏了别人庄园精美的围栏。
尽管英国法庭将这起事故归因于他的GPS,但还是认定其有大意驾驶的过错。
在类似这种因技术引起的交通事故中,当前可用的法案条例非常有限,不过,法院一直趋向作出针对人类的判决。
因为法官和民众一样,已经习惯于一种无智能工具的世界。
一个人用枪杀了人,他应为自己的罪行负责,而不是让他的枪负责。
同样,一家公司销售了有瑕疵的枪支,购买者在使用过程中发生了爆炸,售枪公司应对造成的伤害负责。
进入数字时代,这种惯性思维开始遇到挑战。
1984年6月,美国一家名叫阿斯隆工业的公司被告上法庭,用户指控其销售的自动投球机过于凶狠,发射的棒球不仅路线诡异,而且速度极快,极易导致使用者颅骨骨折甚至失明。
阿斯隆案看似平常无奇,实则令人难忘,因为法官最终宣判对阿斯隆工业而不是投球机进行起诉,原因是什么呢?
因为“我们无法起诉机器人”。
[17]随着人工智能产品越来越广泛地应用于人类生活,越
来越深入地影响整个世界,“无法起诉机器人”越来越遭到人们的反思和质疑。
现代人工智能最大的不同点在于:
它“不再仅限于由人类使用,而是一种由人类部署的工具。
一旦部署,在多数情况下,机器就会按照所收集、分析和最终用于作出决定的信息,独立于指令而自行运转”。
[18]从这个
意义上看,陈旧的“无法起诉机器人”的观念可能需要有所改变。
作为现阶段人工智能应用最广泛的领域,目前全球自动驾驶汽车的发展最引人注目。
但这一技术也引发了不少法律纠纷。
2016年5月7日,美国佛罗里达州一辆自动驾驶的特斯拉撞上了一辆试图横穿高速的卡车,造成车毁人亡的后果。
美国公路安全管理局经过调查取证认为特斯拉的自动驾驶模式并无明显缺陷,汽车生产商、驾驶员也没有过错。
可事故毕竟是发生了,最终该由谁来负责呢?
人们却各持已见,争执不下。
法律责任的区分与承担是人工智能发展面临的首要法律挑战。
其中涉及的深层次问题是人工智能是否可以被问责?
更进一步说,该如何问责?
从传统法理来看,主观过错在法律责任认定中至关重要。
过错性责任与无过错性责任有实质性区别:
无过错就无责任。
人工智能系统独立完成工作,没有人类的参与,那么,由人工智能自主性操作造成的损害如何认定责任,这就成了一个难题。
人工智能引发的责任认定问题,已经引起人们越来越多的重视。
2016年8月,联合国教科文组织在《关于机器人伦理的初步草案报告》中对机器人的责任问题进行了界定,认为应采取责任切割的方法,但凡参与机器人的研发、设计、生产、装配和使用过程的所有人必须共同分担责任。
欧盟在智能机器人责任认定领域走在了世界前列。
同年的5月和10月,欧洲议会法律事务委员会(JURI)先后发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》和《欧盟机器人民事法律规则》,对机器人和人工智能提出立法提案,为智能机器人重构责任规则。
这两份文件认为,如今的机器人已经具有自我学习、自我决断和自主行为的能力,已经不能将其视为一个简单的工具,因此,急需制定新的责任规则。
而这又牵涉到机器人是否拥有法律地位的深层难题。
也就是说,人们必须对机器人的本质作出规定,它是法人、自然人、动物还是物品?
因为这直接关系到机器人在权利、义务、责任承担等方面具有何种特性和内涵。
目前的法律框架下,机器人不必对其自身行为给第三方造成的损害承担责任,这些责任分别归结到生产者、销售者和使用者身上。
这里预设的责任条款是:
这些主体能够且应该预见智能机器人的任何行为尤其是伤害行为。
可一旦人工智能机器可以自主判断并实施行为,传统的责任规则就无法确定责任方并让其作出赔偿了。
这也就意味着,机器人具有自主行为能力的那一刻,所产生的机器人责任问题在现有法律体系内就会陷入死局,无法解决。
还有一些可能的现象值得关注。
试想,如果未来可以很便捷地为每个人打造一个智能复制品,虽然只是一个机器,但外貌、感觉和行为与本人一模一样。
有没有可能出现下面的极端情形?
一个男人迷恋一个女孩,他就上网预订了这个女孩的复制品,通过快递到家,然后虐待甚至“杀掉”这个复制品。
从技术和法律层面来讲,复制品只是一个玩具,虽然具有人的形象但却没有感觉和情绪,买家将它当作玩具购买和使用也无可厚非,那么问题就出现了:
“我们有法律保护这本书免遭剽窃,或我的观点不被扭曲,但是没有法律保护我们的复制品。
”[19]
伦理困境。
所谓人工智能,简单地说就是要造会思考的机器。
那么问题来了?
这些机器是人吗?
它能像人一样享有权利并承担义务和责任吗?
我们凭什么相信这些比人类更有力、更聪明、会自己学习的智能机器不会有一天向人类倒戈一击?
这些问题已经引起人们越来越多的思考。
“人工智能的潜在危险、我们对其日渐依赖以及法律的灰色地带共同构成了非常重要的问题:
我们需要在这个领域建立一种伦理规范。
”[20]
对此,作家艾萨克·
阿西莫夫提出了著名的“阿西莫夫法则”,也被称为“机器人学的三大法则”:
“1、机器人不得伤害人,也不得见人受到伤害而袖手旁观;
2、机器人应服从人的一切命令,但不得违反第一法则;
3、机器人应保护自身的安全,但不得违反第一、第二法则。
”[21]这三大法则一经提出,随即引起人们的热议,
但仅限于人们对未来生活的幻想和无形的担忧层面。
2014年1月,当谷歌收购深度学习公司(DeepMind)时,事情发生了重大转折。
作为交易的一部分,深度学习公司提出的条件是:
谷歌必须成立人工智能伦理委员会,确保对人工智能技术的安全开发和明智使用。
这表明民众看待人工智能的眼光已经发生转变,从原来“人工智能怎么如此不堪?
”转向“人工智能怎么如此恐怖?
”[22]2014年,塔夫茨大学和布朗大学成立了一个多学科研究团队,重点探索能否为用于战争的自动智能武器赋予是非感,希望这些战争机器人在战场上能做出符合伦理的决定。
但其中难度可想而知。
试想,一个正在完成运送伤兵去战地医院任务的机器人军医遇到另一个腿上受伤的士兵,它是立即停下来救治伤兵,还是置之不理继续前行?
这对于正常人类来说都是一个难以抉择的伦理问题,更何况是机器?
再比如生产自动驾驶汽车的公司在设计汽车时规定,一旦汽车检测到前方或后方即将发生碰撞,车辆可以迅速驶离道路从而保护车上人员安全。
这一操作是合理的,现实生活中许多驾驶员也是这样做的。
但如果迅速驶离道路的汽车正好冲进了一群正在路边下棋的市民当中呢?
汽车避开了一个小追尾事故却酿成数人伤亡的惨痛后果。
这又如何是好?
人工智能还引发了一些隐性的道德问题。
2000年到2010年,无人机和机器人战争走出科幻电影的大银幕,变成了真正的现实。
据大卫和伊莱恩·
波特(ElainePotter)于2010年成立的独立非营利组织新闻调查局统计,“美国无人机已在至少七个国家夺去了2500~4000人的性命(阿富汗、巴基斯坦、叙利亚、伊拉克、也门、利比亚和索马里)。
其中有约1000位平民,且有约200名儿童”。
[23]与直接动手杀人相比,虽然造成的后果别无二致,但这种间接“扣动扳机”的行为,无论是对智能软件的设计者、无人机操纵者还是下命令的将军来说,内心的负罪感都会相对减弱,因为至少目前的人们可以接受这样的事实:
“使用机器完成某个行动基本上使机器的设计者和操作者免于该项行为的责任。
”[24]这样的思维也适用于其他情境和场合。
如果由智能机器人执刀的手术失败导致病人死亡,生产机器的公司,操控机器的团队,确定这个手术方案的医生,谁该更内疚呢?
随着机器在普通人的生活和工作中的普及,机器使行为和责任脱钩的现象越来越普遍。
按照常理,人们倾向于将失败的责任转嫁到机器身上。
人们的生活离不开机器,机器为人们工作,这些看起来都是理所当然的。
如果出现问题,那便是机器的问题,而不是人的。
这意味着,人工智能时代,即便有些后果的造成人也有过错甚至就是由于人的过错直接造成的,但机器仍要为所有的过错买单,至少目前是这样的。
随着人类将越来越多的工作交给人工智能,最后必将面临人工智能的权利问题。
虽然这一问题不如人工智能是否会为人类带来危险这样的问题更热门、更迫切,但也是值得我们考虑的问题,因为我们迟早要面对。
英国作家比尔·
汤普森认为,如果把“阿西莫
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 时代 秩序 困境 治理
![提示](https://static.bdocx.com/images/bang_tan.gif)