人工智能时代:技术发展、风险挑战与秩序重构
发布时间2018-06-27 21:46:53     作者:admin     浏览次数: 次

来源:《南京社会科学》2018年第5期  作者:张成岗

 

要:目前人工智能已经从科学实验阶段进入商业应用阶段,人工智能发展正在迎来爆发的临界点。以现代性为基础构架的技术社会中的主奴、不均衡性、目的与工具的三重逻辑悖逆正持续延展到信息社会中。同时,当代中国正在进入的人工智能社会面临着新全球化、新工业革命、社会转型三重叠加的挑战。在历史上的三重悖逆和当代三重挑战面前,人类正在面临又一场技术海啸和秩序重构,人工智能社会需要“不合时宜”的思想者。人工智能是人类社会的重要技术发明,同时存在潜在的社会风险。人工智能使现代技术在“可控”与“失控”两极之间进一步向“失控”偏移;人工智能的认知方面尚未解决算法逻辑基础本身的不确定性问题;人工智能的数据基础面临不可解读及不可追溯性挑战;在伦理规范上面临责任主体缺失及隐私的群体化泄露风险;在人工智能社会应用上,需要应对社会监管挑战,需要应对人工智能替代人类劳动导致的就业冲击。发展人工智能要防止概念炒作和伪人工智能创新,面向未来应当倡导负责任的伦理研究,走向人工智能社会的秩序重构:“善治”与“善智”的相互建构。

关键词:人工智能;技术社会;逻辑悖逆;秩序重构;风险

 

1950年,阿兰·图灵在论文《计算机器与智能》《机器能思考吗?》中提出著名的“图灵测试”,从此,学术界开始开展有关机器思维问题的讨论;1956年的达特茅斯会议标志着“人工智能”概念的诞生。目前,人工智能已经从科学实验阶段进入商业应用阶段,正在迎来爆发的临界点。随着信息化、工业化不断融合,以机器人科技为代表的智能产业蓬勃兴起成为当代科技创新的一个重要标志。

从历史上看,人类社会发展的不同阶段具有功能优先性的制度领域具有一个演变过程诸如亲缘、政治以及经济系统等。技术系统无疑已经成为社会转型期的现代化过程的优先性领域之一。然而,不能忽视的是,作为个体的人有时会被自己的情绪、各种外部诱惑及刺激所影响;人类的认知和实践也均承载着时代和历史烙印,具有种群和进化意义上的局限性。因此,虽然我们不需要过于杞人忧天地担忧偶然因素对人工智能发展的影响,但我们必须承认这种情形存在的可能性并尽早将其纳入考虑范围。面对未来构建“好的人工智能社会”的挑战,全面认识和评估人工智能兴起及其带给社会秩序、伦理规范等的变革与挑战无疑具有重要意义。

一、“技术社会”与“人工智能时代”

1.“技术社会”及其三重逻辑悖逆

提到“技术社会”我们绕不过美国技术研究学者埃鲁尔,他秉持人文主义的技术批判精神,但并不是技术灾变论者,也不能被看作是“具有误导性的异教徒”。在1962年出版的《技术社会》中,埃鲁尔详细论述了“技术社会”之存在、特征及其对人类历史的影响。他的“技术”概念明显具有宽泛和包容性,除了器物层面技术,也包含社会技术,如心理技术、宣传技术等,还包括抽象技术,如速记技术等。埃鲁尔用效率对技术进行了定义。他认为,技术是指所有人类活动领域合理得到并具有绝对效率的方法的总体,哪里有以效率为准则的手段的研究和应用,哪里就有技术存在。[1]技术在现代社会具有统摄性力量,在一定意义上,技术决定着科学、经济及文化的走向,技术已成为人类生存的新环境,这就是所谓的“技术社会”。埃鲁尔指出,传统意义上认为技术由人所开发必然可以为人所控制的说法其实是肤浅和不切实际的;人类既不能给技术明确的方向与定位,也不能为目的而控制技术,技术人员、科学家、产业实践者、公众、社会组织都不能做到对技术的控制,为此只能寄希望于人类全体形成合力以达成对技术的控制。

技术社会的出现及其演化为人类提出了两个共时性问题:第一,在工具世界中如何保证人的主人地位第二,人类文明与新技术是否和如何兼容实际上,工业社会以来的历史发展表明,所有的技术社会形态都不得不面对以下三重逻辑悖逆:1“主奴悖论”:即制造者与制造物的矛盾,也就是如何避免制造物对制造者的叛逆,如何防止技术失控。2“不均衡悖论”:即技术与社会制衡力量的矛盾,笔者称之为“不均衡悖论”。技术发展与经济增长是正比例而非同比例关系,技术发展和文化进步之间有可能是正比例关系,也有可能是相反关系;技术效率成为人类生活的标准之后,“文化病毒”和“文化免疫系统”之间一直存在不均发展的矛盾。3“工具和目的悖论”:技术工具与技术生活方式的矛盾,在一定意义上说,技术的发展与人类设定的目标无关,因为技术本身就是目标。

以现代性为基础构架的技术社会中的主奴关系、发展不均衡性以及目的与工具关系中隐藏的三重逻辑悖逆正持续延展到信息社会中,同时,当代中国正在进入的人工智能社会也正面临新全球化、新工业革命、社会转型三重叠加的现实挑战。

2.人工智能时代的“三重背景叠加”

目前,人工智能正在全面进入和重塑人类的生产和生活空间。从智能机器人、智慧家居到无人驾驶、无人工厂,人工智能技术被广泛应用到社会生活和生产的各个领域,改变甚至颠覆了我们的传统认知,对未来的农业、制造业、律师业、新闻业、交通业、医疗业及体育业等产业形态带来极大影响。当前,人工智能席卷全球,被首度写入“十三五”发展规划的AI已经迎来全面爆发年。人工智能是引领未来的战略性技术,从国际发展态势来看,世界各主要国家均把人工智能作为主要发展战略,力图在新一轮国际竞争中把握住主导权和话语权。

当代中国正在进入的人工智能社会面临着新全球化、新工业革命、社会转型三重叠加的挑战。全球化是一个充满矛盾的历史进程,是推动社会变革的关键力量,新全球化正在重新塑造世界和区域秩序。所谓的“逆全球化”“去全球化”以及民族主义、保守主义回潮等不应被过度解读和人为放大认知风险,这些只是全球化博弈中,相关国家为了各自利益所做的策略型调整,不会改变全球化本身,“是微波而不是巨浪”,是局部的策略型调整,不会改变全球化本身,全球化是必须面对的事实而不应当是对抗的对象。

新工业革命正在深刻改变人类生产和生活方式。信息技术是新科技革命的龙头,正在向各个领域深度渗透,深刻改变着人类生产和生活方式。基于持续的技术创新和颠覆,以数字化、网络化、机器自组织为标志的第四次工业革命正在开启人类历史新阶段。新工业革命不仅是一场技术与产业革命,对全球价值链结构、全球产业竞争格局产生深刻影响,更是一场社会、文化、价值与思维等领域的全景式整体性变革,将提供社会转型新动能,带来社会治理新挑战。第四次工业革命为发展中国家全面参与全球治理与改革提供了历史机遇,随着中国从技术创新跟随者到引领者角色的变化,中国正在积极参与和引领国际话语权、规则制定权和议程设定权,倡导新型全球化,为世界困境贡献中国智慧。

进入21世纪以来,大数据和人工智能蓬勃发展成为新工业革命的显著标志,并将重塑人类生存和生活的现实空间。顺应形势把握住人工智能带来的重大历史机遇,可以带动国家整体竞争力的整体跃升,为处于转型期的中国经济社会发展提供强大动能。发展人工智能已经成为国际社会的共识,然而人工智能在提供社会发展动力和平台的同时,也对经济、社会、就业、伦理、安全诸领域提出新挑战。笔者认为,在历史上的三重悖逆和当代三重挑战面前,人类正在面临又一场“技术海啸”和秩序重构,人工智能社会需要“不合时宜”的思想者。

二、人工智能社会需要“不合时宜”的思想者

在当代社会,技术不仅呈现为物质元素系统,而是演化成了赋予人们生活以价值和意义的整体性“座架”,技术深刻影响着人们的思考习惯、动机、个性及行为。作为一种整体性现象,技术正在超越个人与社会;工业社会对人的程序化行为有强烈需求,现代人置身其中的信息社会对多任务处理和快速处理有强烈需求。技术并不仅仅是一种物质手段,而是一种文化现象,是控制事物和人的理性方法。按照兰登·温纳的总结,当代技术具有如下特点:自主性、合理性、人工性、自动性、自增性、统一性、普遍性;其中自主性是技术最根本的特性,技术自主性意味着技术摆脱了社会控制,正在形成一种难以抑制的力量,人类自由将受到威胁;“技术系统”按其自身规律、沿着自己道路向前发展,“现代技术已经发展到新的规模和组织,我断定技术以系统状态存在,即整体上的组织化”[2]

在信息社会,由计算机所中介的人类实践正变得越来越多,面对面交流所进行的人类实践正变得越来越少;我们正在见证人与人之间相互联系的逐步解体、传统社会交流的消失和一种新人类生活模式的凸现;在这种新模式中,个体与计算机终端而不是与人一起工作和生活。[3]在《技术、时间与现代性的会谈》中,辛普森指出,信息社会中的主体已经沦落为“交流网络中的接线员,接线员没有主体性、没有内在性,只是接受、转换和传输信号”。我们从早期现代性的“我思故我在”转换成了信息社会现代性的“我传输和接收故我在”;马克思的“人”的概念也沦落为在后现代社会作为“信息回路中的集结点”的个体概念。后现代语境中,技术尤其信息技术带给人类全方位的冲击,传统的很多概念都需要进行重新定位和反思。比如,我们可以“组织和使用经验”,经验也变成了可以储存在计算机文件中的东西;再如,不是将主体看作使人类的体验成为可能之场所,塞博空间将主体视作监狱,这就是虚拟现实中的“主体之死”;还有,过去和现在可以拥有同样的地位并可以被共同体验,时间也成为一种可以“被捕获”“被控制”“被驯服”的时间。[4]

如果行为动机不再依靠需要加以证明的规范,如果人格系统不必再到确保认同的解释系统中去寻找自身的统一性,那么,不假思索地接受决定就会变成一种无需责备的机械习惯。[5]在技术社会中,绝对服从的意愿会达到随意的程度,“技术社会不需要理解,最重要的是执行”。埃鲁尔指出,如果技术将潜在地导致灾难,知识分子的立场应当是警示、谴责和批判,进而找出通向未来之路。

技术一直被视作将人类置于世界新起点的解放性力量,技术创新与社会变革之间的复杂性促进了相关理论的兴盛。然而,在过分注重“理性算计”的技术文化中,技术批评者的声音并不容易得到认可和传输,即便在切尔诺贝利和福岛核事故之后,技术批评论调也经常被弱化和消解。

目前,互联网和远程通讯已成为休闲和娱乐最重要的领域,就像休闲一样,文化成为一个技术逻辑领域。对于埃鲁尔来说,尽管技术极大地改进了人类生存和生活境况,技术与政治、经济等的结合也在创造出诸多危害,将这种情况说出来非常重要,尽管这可能是“不合时宜的”!

所谓“不合时宜”不是脱离当代社会面临的问题,而是要批判一般性假定(比如进步、增长与创新等);思想家进行技术批判与反思的目标不是获得实用主义意义上令人满意的答案,而是要将问题尖锐地呈现出来。技术对非技术领域比如文化领域等的殖民需要得到关注。在信息膨胀的网络空间,有关信息技术、人工智能和大数据等的批判性话语应当得到真实的叙述与呈现。当代社会的诸多似乎合理的流行价值观和生活常识需要得到“不合时宜”的审视和检讨。[6]

首先,“效率主义”应当得到反思。效率原则是技术社会构建的基石,但经由语词魔法,“以效率之名”似乎具有了不可抗拒的社会号召力,很多活动之所以被接受和执行是因为其具有效率。我们必须追问的是效率是不是技术的专有价值问题的关键在于“到底是谁的效率?”。经济效益并不是唯一的工作激励因素。对于许多工程师、程序员和媒体艺术家来说,其主要目的是产生令人兴奋的新的人工制品或将想象力加入其中。历史上,黑奴制对于美国经济曾经是很有效率的体制,但美国社会似乎也没有接受黑奴制。实际上,目的应当成为正当性的来源,而非效率成为正当性,换句话说,效率具有非充分决定性。

其次,在一个日益加速的技术社会中,更应该考虑如何“控制速度”。在思想史上,反思速度一直是理解和批判技术发展的经典路径。当代社会个人越来越被迫适应加速生活节奏和社会期望,时间似乎成为了最稀缺资源。技术节奏应当被看作是“错误的”,至少是“令人困扰的”东西。[7]在网络组织的社会中,信息技术变得普遍并正在入侵所有的人类生活,网络生产的装配线正在直接剥削认知范畴的情感能量。实际上,对技术变革速度的话语应当既包括对如何加速技术变革的关注(比如,“我们需要更多的创新”),也要包括对如何限制技术变革的关注(比如,“所有都进行得似乎太快”)。[8]

最后,“发展”现象需要重估、“新发展观”亟需重建。“去增长论De-growth”学者拉图什La tou che曾经指出,应该反对自由经济的口号,因为自由经济把国民生产总值年增长量视为幸福和投资的唯一衡量手段,而不是去努力保护已经是最稀缺的资源,比如丰富的自然世界和友谊所带来的平静的快乐。[9]经过几十年的发展,“解构发展”运动已经导致“发展”被重新定义和进行限定性描述,发展的内涵和意义已经发生了重大变化,唯GDP主义受到批判,重新使用、循环利用、节约资源的生态发展受到关注。新发展观强调要更加注重人们的幸福指数、人们的社交和友谊,关注人们的获得感,而不仅仅考虑金钱问题。[10]

笔者认为,从法兰克福学派的技术批判理论到埃鲁尔的“技术社会”理论,从温纳的“自主性技术”理论和“技术漂移”学说到玻斯曼的“媒介三部曲”,当代社会的核心问题已经被触及到,批判性话语与网络空间及人工智能的结合有望成长出“主体理性社会的交往理性空间”。

三、人工智能:“技术海啸”、风险与不确定性

历史地看,文明演进的每一阶段都在释放新问题,提出新困难。在工业文明的高歌猛进中,人们通常持有“一切问题都是技术问题”的观念,每种技术都被设想用来解决某类问题,并被看作社会中的技术进步。通过技术发展,我们日益成功地克服困难、解决难题;然而,这种问题解决往往仅仅是在又遇到另一个问题意义上的解决。

2011年3月11日,日本东部近海发生里氏9级地震,引发大海啸并直接导致福岛核电站发生严重事故。事故发生在经济发达、技术先进且拥有较长核电站运营历史的国家,更是令人震惊。应当说,福岛核事故所带来的不仅仅是诸如日、德、瑞、法等国关于是否“废核”的政策反思,也不仅仅是科学界对电力或能源领域何去何从的茫然,更为重要得是,它动摇了人们关于科技能够保护人类免遭技术灾难、保障社会秩序安全运行的深层信念。现代社会的巨型官僚机器与工业技术的巨大增长的结合所带来的威力已然超出了人类的理解范围,使人们陷入了无意识的境地。日本学者三岛宪一评论指出,福岛核事故是“对工业技术的民主控制的失败”,在地震多发区建设核电是“合法的犯罪”和“威胁公民的有组织恐怖主义”。[11]

现代技术的巨大成就及其给人类社会带来的诸多福祉,也容易滋生技术乐观主义思潮。人们认为,只有以数学和统计方法为基础的科学技术才是可靠的,借此人类可以驯服概率和不确定性,从而控制自然和风险;这种信念在一定意义上构成了技术秩序的基础。贬低不确定性、相信风险能够被永远根除是西方文明傲慢的结果;事实上,西方式的傲慢有时会变成风险以其他形式重新出现的基础。技术社会所信赖的数学和统计方法本身也许更适应于封闭系统,其中难以量化和模式化的元素常常会被忽略,而风险却是一个整体性事件。

技术发展后果往往具有不可预料性,技术后果在总体上可以被分为“不可预测但在意料之中的unpredicttable but expected“不可预测且在意料之外的unpredictable and unexpected effects”,不可预测性是技术过程的显著标志和内在特征并且不能被纠正,因为:首先,人们可以想象技术发展的后果,却想不到其后的联合效应combinations;其次,技术思想本身并不能思考技术,不能通过它来处理其功能障碍或不利影响,它仅仅提供已经存在的技术思想的扩展或改进,除非通过技术文化来思考;最后,不可预测性源于技术系统所产生风险数量的不成比例增长。[12]

从事技术批判的思想家带给我们的启示是:在讨论现代世界的技术背景时,首先应当探究我们失去调节技术系统的复杂性的能力,并且承认我们自己的无知和不确定性所带来的困难。我们不仅不能消除不确定性,而且技术秩序实际上给我们带来了类似于或甚至大于自然力产生的旧的不确定性的偶然性。因此应当更加重视不确定性,从而将其作为调节技术时重要的预防原则。

实际上,早在工业革命初期,曼德维尔就指出,在个体主观行动之上,存在着客观的“涌现的”社会规律,但社会行为常常受制于非预期的结果,个人行为和社会效应是由两套完全不同的规律支配的。马克思的技术社会学一直被称作技术社会学的两大流派之一,在《技术社会学:后学术社会科学的根基》中,杰伊·韦恩斯坦指出,19世纪中后期,马克思已经深刻论证了技术评估的必要性和重要意义,马克思不仅在关注技术创新,而且也关注谁在进行技术创新,是为谁的利益进行创新,为何目的而进行技术创新,在此意义上,马克思被看作历史上的第一个进行技术评估的人the first technology assessors”[13]

数字主义者将计算机想象成人类的最终命运,人工智能之父马文·明斯克Marvin Minsky将人类的大脑描述为“肉类计算机”,扭转了关于计算机是“机械脑”的隐喻。[14]这种隐喻图景的变换在一定程度上反应了人工智能的快速发展及其革命性影响。哲学家休伯特·德雷福斯Hubert Dreyfus指出,人工智能的历史充满了“第一步的谬误”,类似于“爬上树的第一只猴子正朝着月球着陆”[15]。欧洲认知系统协会主席文森特·穆勒Vincent C.Müller认为,对待人工智能的风险问题,应该保持一种谨慎心态,“如果人工系统的智能超过人类,那么人类将会面临风险”;反思人工智能风险之目的就是要“确保人工智能系统对人类有益”;他指出:“以前关注的是与认知科学相关的人工智能哲学和理论方面的问题。而现在越来越多的关注点集中在风险和伦理问题上。”[16]

一般而言,与人工智能发展中乐观主义相伴生的是对新技术发展的风险恐惧,成因如下:首先,认为一种新型超智能机器会毫无疑问地对人类构成生存威胁;其次,认为对未知事物的恐惧符合人类认知的常识,人类很难事先精确知道一种新的超级智慧生物是什么样的以及它将如何看待人类自身;第三,认为人工智能出现是一个缓慢但相当稳定的进化过程,我们可以理解,但无法阻止其进程,就像大陆漂移过程一样。[17]

人工智能风险具有如下特征:1“技术与社会共生的复杂性”。人工智能时代的风险是一种复杂的总体性风险,与海啸、地震等自然灾害不同,这种风险既可以是人类正在研发的新技术所产生的风险,也可能是技术嵌合于其中的制度本身所隐含的风险,这两种风险共生于人类社会。2“当代与未来贯通的长期性”。人工智能时代的风险不仅现实存在,而且伴随着未来的不可预测性,贯穿于技术社会尤其是信息社会以来的整个历史进程。3“全球性与区域性结合的跨界性”。工业革命经历了肇始欧洲、逐渐扩展到北美、东亚等的缓慢过程,与以往不同,在新全球化、新工业革命交织下的人工智能风险既具有地域特色,又具有全球特征,具有跨界性,超越了自然地理和社会文化边界,在技术上塑造着人类命运共同体,因此,全球应该及早形成共识、协同行动,在积极发展人工智能技术的同时,更要警惕其潜在社会风险,避免“近视症”。[18]

四、人工智能社会:风险审视及社会规约

在新科技革命背景下,机器人与人工智能已经成为下一个产业新风口和产业转型升级新机遇。目前人工智能正在进入生产领域,由此导致的人与机器在生产领域的矛盾不能被忽视。人工智能正进入人类的日常生活,改变着人们的生活方式,大数据和人工智能在重塑人类现实的同时,人类更需要加强相应的社会规范和社会治理,真正享受到科技发展给生活带来的福利。一方面,人工智能是新兴科技重大革新的结果;另一方面,作为革新的基础,人工智能发展又在世界各地推进更大程度、更大范围的现代化。发展科学技术是近代以来中国建设现代民族国家努力的重要组成部分,大力发展人工智能技术是当代中国创新型国家建设的重要组成部分,人工智能的快速发展要求我们对其风险及其挑战要有全面和系统认知。

1.技术自主性与人工智能的失控风险

人工智能在带来生产方式、生活方式以及思维方式重大变革的同时,也给当代社会带来了哲学和伦理挑战,其中技术失控和责任主体模糊问题尤为紧迫。技术一旦失控,就会对人类的生存和生活带来巨大的威胁。新兴科技在改变人类生存方式的同时,也在改变人与自然和人与人之间的关系;随着人工智能等新兴科技的发展,人与物的关系问题会转变成人与“人造物”的关系问题。

西方人对于技术与人类之间关系的认知通常建立在以下观念基础之上:人类最了解他们的制造物;人造之物处于人的牢固控制之中;技术在本质上是中性的,是达成目标的手段,其利弊取决于人类如何使用。温纳认为,自主性技术观念则“通过表明控制在实践中行不通,从而开始拆穿这一梦想”[19]。技术的“自主”意味着技术相对于人类的“失控”。技术发明的完成往往意味着技术自身的终结,被创造者对创造者的反抗也贯穿于技术发展的历史。基于对人类未来命运的担忧,雅斯贝尔斯等也早有警示:机械作为人类与自然斗争的工具正在支配人类,人类有可能成为机械的奴隶。

以色列历史学家Y.N.赫拉利Yuval N.Harari描述了人工智能发展的三个不同阶段:弱人工智能、强人工智能和超人工智能。他预测超人工智能阶段将在21世纪40-60年代出现,整个社会裂变为两大阶层,大部分人属于“无用阶层”,极少一部分人是社会精英阶层。建立在生物科学、信息技术、大数据技术快速发展基础上的人工智能有可能导致人工智能社会的出现,在智能社会中,机器智能递归式自我改善能力的获得可能导致最终的“智能爆炸”。在未来,人类整体将具有价值,但个体将没有价值;系统将在一些个体身上发现价值,但他们也许会成为一个超人的新物种。

计算机是迄今为止人类发明的最重要的机器,“这不仅因为它深刻地改变了我们的生活,带来生产力的革命,影响到社会生活的每个角落,更因为它直接指向人类的本质特征——智慧”[20]。对于人工智能的未来发展,刚过世的物理学家斯蒂芬·霍金曾指出,人工智能日益强大的威力使机器人能够复制自己,并提高智能的速度,从而导致机器人可以学习智能,导致转折点或“技术奇点”。马克·毕晓普J.Mark Bishop认为,霍金的警告本质上是正确的,但人工智能对人类而言也可以成为一种善的力量。[21]马克·毕晓普相信电脑永远无法复制所有的人类认知能力和权利,人工智能和人类之间存在着“人性差距”:计算机缺乏主体性意识;电脑缺乏真正的理解;计算机缺乏对创造性的洞察力。尽管原始的计算机能力和随之而来的人工智能软件将会继续改进,但与未来人工智能一起工作的人类思维的组合仍将比未来的AI系统自身更强大,奇点将永远不会出现。[22]

实际上,在技术发展中一直贯穿着“技术控”抑或“技术失控”的二维逻辑主线。人工智能则把技术思想史中的技术失控问题推向了一个新高度。由于样本空间大小的限制,人类的经验认知容易收敛于局部最优,大数据科学的发展及机器学习能力的跃升有可能突破人类认知的局限性。能否和如何保持对人工智能的控制无疑是人工智能研究中的基础性问题,人类在高度发展的人工智能面前可能没有反复试错的机会。技术作为物的特性要求被不断量化以达到不断完善,而人类美德文明却恰恰属于不可量化的质的领域。正如温纳所警示的:技术确实有时并不能服务于人类,有时技术会失去控制,甚至会导致灾难。从技术史的演化来看,技术失控是一个持续的、日常的事物,在我们日常生活或高技术领域里都有这类事物;失控不是技术本身的错,而是人们想象或勇气的缺失。[23]

2.新技术决定论形态中的算法及数据挑战

人工智能的发展使技术思潮中技术决定论呈现出新形态:“算法决定论”“数据决定论”,但人工智能算法的逻辑基础本身蕴含着不确定性,人工智能数据基础隐藏着不可追溯性的挑战。

人工智能算法的逻辑基础具有不确定性。人工智能发展建立在算法基础之上,算法使用的学习方法类似于人类学习过程,即利用相关性关系经验性地总结出结论或模型,再由该结论或者模型对更多现象进行演绎分析。因果关系必须具有状态描述与状态之间的必要联系,而从相关性到因果性的逻辑链条并不完备,相关性具有不确定性。归纳问题是一个棘手的问题,因为“主观概率和信仰定位的理论并未在思考的平衡状态保持稳定”,“这个执行者相信的只是关于它知识范围中的所有经验事物”[24]。人工智能专家的过度自信可能会使专家用于判断所基于的模型优于专家判断本身,而模型的逻辑基础本身具有不确定性。推理和演绎是人类完成世界认知的重要逻辑工具,人类对自我知识和认知有主体责任,但人工智能算法并不具有责任承担的主体性资格。基于大数据和强大算法的人工智能系统正在影响甚至替代人类的决策过程,如果算法本身具有非因果性和不确定性,在追求确定性的社会生活领域,我们应当考虑对AI决策权的相对限制。实际上,国际上已经出现一些限制性规范,比如欧盟GDPR第二十二条规定,数据主体Data subject有权利不接受由人工智能自动处理得出的结论并可以要求提供解释。

人工智能数据存在不可追溯性挑战。传统意义上的产品质量应当被监控和动态检测,以确保问题产品能够得到及时解决。随着人工智能产品的兴盛,新产品安全问题逐渐成为新兴风险。训练AI的数学模型的大数据来源、范围与质量应当得到有效控制,数据的系统性偏差应当得到合理调控。庞大的数据已经超出了个人认知范围,个体知情权存在被数据和信息淹没的风险。AI将会对人类社会产生颠覆性影响,我们更应在数据来源和质量上加以规范。作为人工智能基础的算法和数据将会对社会造成重大影响,在制度设计方面保障市场开放性并赋予消费者拒绝算法决策权,在一定程度上可以减少算法及数据不公正性造成的负面后果,“缺陷召回制度”也是保障产品安全的重要措施。

3.人工智能发展中的伦理风险及其规约

新兴科技已经成为当代伦理学研究的新对象,正在重塑人类的社会秩序和伦理规范。计算机认知哲学是最早关注人工智能与认知科学伦理问题的领域,在认知中存在一种智能恐惧论,认为不道德地使用人工智能,会导致人工智能取代人的功能,甚至取代人的主体地位;[25]更多学者倾向于认为,随着人工智能自主能动性的提高,责任问题才是最突出的伦理难题。[26]新兴科技伦理规约所面临的现代性困境其实在于责任问题,如何确定人工智能技术活动及其后果的责任主体,是人工智能发展必须要考虑的问题。由于整个技术社会制度让每个行动者在完整的技术活动过程中充当单个环节的活动者,这必然导致技术主体的破碎化。在新兴科技的伦理规约挑战中,技术设计的美好愿望与技术后果的失控日益凸显。人们既想通过技术转变和升级生产方式和生活方式,又不想让技术进入非技术领域。

技术与伦理的内在冲突呈显于技术发展的不同阶段。只有处理好新兴科技与人、社会文化及环境的关系,处理好高效率存在方式与真正的进步之间的关系问题,才能给人类和新兴科技的和谐发展提供一个良性环境,真正实现“善治”与“善智”的互构。在技术的快速前行中,我们甚至不能判断我们是否在以正确方式生活;道德也正在从生活中被剥离,技术文化本身存在失去其内在目的性的危险,人工智能中的算法偏差和机器歧视问题日益凸现。机器的工作速度、精度、强度无疑会高于人,但机器运行中也会出现算法偏差和歧视问题。比如,谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出现暗示具有犯罪历史的广告等。“机器伦理”有望能约束智能系统的行为,以确保这些系统的发展带来积极的社会成果。

尽管“机器比人聪明”并不是机器控制人的充要条件,当前社会对“机器人是否会在未来控制人类”的高度关注反映了人工智能技术发展中的人类隐忧。人类自由意志的基础来源于自我决定权,自我决定同样意味着自我风险、行为的社会风险以及在自我能承担相应后果的能力。以自动驾驶为例,不合法的人类驾驶比如醉酒驾车、疲劳驾驶、危险驾驶等充满各种风险,将决策权交给人工智能算法无疑可以大大降低以上非法行为的风险性,但我们同时也将相应的责任转移给了人工智能算法。

无自由意志的人工智能算法如何承担主体责任无疑也是伦理规约难题。无人驾驶汽车版的“电车难题”在现实中也无定论:当出现紧急状况时,自动驾驶行动应先保护车内人员,还是路上行人随着车上人员和路上行人数量不同,抉择难度也会升级。人工智能系统因自身的产品瑕疵而造成损害的责任承担也是目前的困局,责任事故应归咎何处:是设计人“技术漏洞”,还是操作人“不当使用”,抑或是智能机器人超越元算法的“擅自所为”。

4.人工智能对就业的冲击及其社会风险

历史上,工业革命的一个重要影响就是机器对劳动力的补充或取代。当前,随着人工智能技术的发展,认知和情感劳动也已经开始被取代,一些经济学家把这称为“机器时代2.0”[27]。在新技术革命浪潮中,新兴技术作为节约劳动力速度的工具超过了社会为劳动力开辟新用途的速度,人工智能正在挑战社会就业结构。2010年牛津大学的一项研究预测,未来10-20年47%的岗位会被人工智能所取代;2016年的世界经济论坛预测未来五年将有500万个岗位会失去;2017年麦肯锡研究报告[28]显示:有60%的职业至少1/3面临着被技术替代的可能性,大量行业和工作者面临着重新择业的挑战;到2030年,依据行业的不同将会有0-30%的工作被自动化取代,这取决于自动化的速度和幅度。伴随着人工智能技术的迅速发展和应用,人们抑或会进入一个技术性失业率不断上升的时代!

随着人工智能发展,新型机器人正在成为社会生产和生活中极具竞争力的“新型脑力劳动者”,这种“新劳动者”的职业优势已经体现在诸多行业。被取代的工作和岗位具备如下特征:凡是可以描述的、重要的、有固定规则和标准答案的工作岗位,都有被智能机器人取代的可能。随着人工智能的广泛应用,第二产业中的“第三产业”将重构人群就业结构,对社会稳定构成挑战。

2017年习近平《在二十国集团领导人汉堡峰会上关于世界经济形势的讲话》中指出,在当前,世界经济发展仍不平衡,技术进步对就业的挑战日益突出。我们应当处理好公平和效率、资本和劳动、技术和就业的矛盾。要继续把经济政策和社会政策有机结合起来,解决产业升级、知识和技能错配带来的挑战,使收入分配更加公平合理。

5.人工智能时代整体图景缺失的挑战

人工智能时代是通过程序呈现的世界图像在时间序列上的布展;然而,技术的复杂性往往会掩盖人类重要活动的复杂性,比如信息电子技术的使用即是如此。时代的困境在于人类无法将复杂的世界组成可以理解的整体,在享受技术便利的同时,也失去了对复杂技术系统的控制。

人工智能时代正面临整体图景缺失的挑战。大卫·温伯格David Weinberger[29]指出,人们从互联网获取信息有两个工具性途径,一个是利用电脑提供的海量信息记忆,上网搜索获取答案;另一个是利用社交手段,借助朋友圈的引导,找到感兴趣的信息。互联网可以在相当程度上提供有用的网络知识,但互联网不能为我们提供对网络知识的“理解力”。互联网非但不能为我们提供理解能力,而且可能阻碍理解能力的发展。网络空间正在出现认识的“傻瓜化”现象;享受信息技术便利的人群也许会提出如下解决方案,对技术“知其然即可,而不必知其所以然”,因为这并不影响利用技术、享受便利。实际上,与其他技术类似,人工智能技术的复杂性存在掩盖人类重要活动复杂性的风险,社会技术网络并不能自我调整和校正,便捷化的人工智能技术的使用对整体化的时代图景形成挑战,假定没有被全面洞察的社会能够良好运行,从而把人类的发展放在不确定性的根基之上。

AI的崛起和全面爆发既有技术的实质性突破,也有伪概念的虚假繁荣,需要清醒客观的判断和扎实冷静的努力;人工智能技术发展既面临机遇,也需要应对诸多风险及挑战。笔者认为,人工智能时代的最大风险是“我们并不了解人工智能的风险”。在思想探索进程中,我们必须反对认识上的决定论,不能直接假定“人工智能是坏的,或者人工智能是好的”。除了关注技术进步本身,我们应当努力描述作为“社会事实”和“伦理事实”的人工智能。人类不能让舒适的假象迷惑主体性意识,人不能放弃自己而沦落成为某种决定论的服从者。成为决定论的服从者会导致被奴役,被技术所奴役;人在获得“表面上的自由”的同时,不能放弃“真正的自由”。技术起源于机器,但是技术不等于机器;机器与人工智能仅仅代表技术的一部分,关注人本身应当始终成为科技发展的目标和动力

五、人工智能时代:走向“善治”与“善智”的相互建构

在现代性与全球化语境下,以信息、大数据及人工智能技术为基本元素所塑造的人类社会生活秩序正在呈现出与以往不同的特质和安排。人工智能带给人类社会的冲击恰似一场历时久远的“社会秩序海啸”,人工智能是人类社会在当代最伟大的发明之一,同时也存在潜在风险,主要表现在:人工智能使现代技术在“可控”与“失控”两极之间进一步向“失控”偏移;人工智能的认知方面尚未解决算法逻辑基础本身的不确定性问题;人工智能的数据基础面临不可解读及不可追溯性挑战;在伦理规范上面临责任主体缺失及隐私的群体化泄露风险;在人工智能社会应用上,需要应对社会监管挑战,需要应对人工智能替代人类劳动导致的就业冲击。

首先,基于在技术的历史发展中一直存在着的三重逻辑悖逆,我们需要对人工智能技术发展的社会后果进行全面评估。古希腊先哲“认识你自己”的箴言在人工智能时代显得更为振聋发聩。技术社会存在“对技术的美化和神化有余”、“反思和批判不足”的现象;我们必须清晰地意识到,在越来越多商品可供消费的技术时代,技术批判并不容易得到人们的认可;在人工智能被日趋叫好的当代,人工智能的批判性反思尽管非常必要,但“不合时宜”的思想的生存周期并不被看好。社会应当为“不合时宜”的思想者和创新者提供成长的土壤,培育公众独立探索的习惯和不带成见与偏见的探索精神。整体性图景的缺失显示了想象力的消退,只有具备社会学想像力才能看清更广阔、更深远的历史舞台,才能发现现代社会的隐蔽构架。为此,我们需要培育批判性反思与创造性建构的能力,养成在微观事实与宏观结构之间进行贯通的素养。

其次,我们应当清醒地意识到“反思技术”并不等于“反对技术”,技术发展最终应当回归人本身,社会要发展“为了人类的技术”。面向未来,我们不是要放弃技术,而是要全面深入反思技术社会的影响,改进社会发展中的制度设计,用更积极的行动解决技术发展中遭遇的问题。人工智能时代,应确立以风险预防为核心的价值目标,构建以伦理为先导、技术和法律为主导的风险控制的规范体系;在技术发展中,不仅要关注事后补救,更要进行事先预防;在风险规避中,要推进技术发展的公众广泛参与原则,包括技术信息公开和公众参与、公众决策等。在技术的社会控制上,技术专家、思想界、产业界在自己的范围内可以自圆其说,但不同语境缺乏可通约性,只能是自说自话。我们必须寄希望于人类全体形成合力以达成对技术发展的理性控制,人工智能时代亟待构建利益相关者的对话平台,思想关切应当从“个体”转移到“人类命运共同体”。笔者认为,“人类命运共同体”理念的提出对于发展技术的社会控制理论具有重要启迪意义,多元碰撞必将促进新的融合!

最后,作为世界上最大的发展中国家,正在进入新时代的中国应当尽快完成从“跟跑者”“并跑者”向“领跑者”的角色转换。在人工智能时代,人类需要系统推进“技术”与“社会”的良性互动。人工智能时代,非西方社会的发展正在呈现出跨越式、超越式的非常态发展,基于西方社会发展经验的理论启示已经不能提供社会前进的路标。在中国,移动互联网用户的剧增、电商从业者和用户数量的爆发、人工智能和大数据对社会生活空间的拓展等都是世界现代化进程未曾出现的崭新的宏大实践。在人工智能的话语论述中,既要避免认识论上的卢德主义,又要避免认识论上的技术决定论。对于人工智能既不能过度乐观,选择性简化或忽略问题的严肃性,也不能过于放大风险甚至成为“技术灾变论者”,因而裹足不前,阻碍技术发展。人工智能时代机遇与挑战同在,应当加强人工智能技术发展研判和预测,增强风险意识,更好应对人工智能技术可能导致的失控风险、伦理挑战、就业影响,促进科技治理能力现代化。在推进人工智能社会建设中应当处理好“善治”与“善智”的关系,发展“负责任”的人工智能,走向技术与社会的“良性互构”。

 

参考文献:

[1]Jacques Ellul,The Technological Society,Trans.John Wilkin-son,New York:Vintage Books,1964:159.

[2][19][23][美]兰登·温纳.自主性技术:作为政治思想主题的失控技术[M].杨海燕.北京:北京大学出版社,2014:23825221238—252.

[3]张成岗.技术与现代性研究:技术哲学发展的“相互建构论”诠释[M].北京:中国社会科学出版社,2013:132—147.

[4]Lorenzo C. Simpson,Technology,Time and the Conversations of Modernity,New York:Routledge,1995:138-150.

[5]尤尔根·哈贝马斯.合法化危机[M].刘北成曹卫东.上海:上海人民出版社,2001:61.

[6][14]Alonso,Andoni.“An Unseasonable Thinker:How Ellul Engages Cybercultural Criticism”,In Jacques Ellul and the Technological Society in the 21st Century,Springer/Dordrecht,2013:115-128.

[7]Ian Hart,De schooling and the Web:IvanIllich30 Years On[J].Educational Media International,2001:69-76.

[8]Gabbard,D.A. Ivanillich,Postmodernism,and the Ecocrisis:Re introducing a“Wild”Discourse[J].Educational Theory,2010(2).

[9]Latouche S,De growth,Journal of Cleaner Production,2010(6).

[10]Parajuli P.The Development Dictionary:A Guide to Knowledge as Power. WOL FGANGSACHS,ed. American Ethnologist,1996(3).

[11]Garcia JL,Jeróni mo HM. Fukushima:A Tsunami of Technological Order,in Jacques Ellul and the Technological Society in the 21st Century,Springer Netherlands,2013:129-144.

[12]JayWeinstein,New Brunswick,Sociology/Technology:Foundations of Post academic Social Science,N.J.:Transaction Books,1982:24-38.

[13][16][17][21][22]Vincent C.Müller,Risks of Artificial Intelligence,University of Oxford,UK and American College of Thessaloniki/Anatolia College,2016:92,2,180,267-268,273.

[14]张成岗.发展人工智能应避免“近视症”[J].人民论坛,2018(2).

[15][24][英]玛格丽特·博登.人工智能哲学[M].刘西瑞王汉琦.上海:上海译文出版社,2001:7,214.

[16]Gries D.Ethical and Social Issues in the Information Age,Springer,2013:206.

[17]Verbeek P-P,Moralizing Technology:Understanding and Designing the Morality of Things,The University of Chicago Press,2011.

[18]Bryn jolfsson,E.,&McAfee,A.The Second Machine Age:Work,Progress,and Prosperity in a Time of Brilliant Technologies,WW Norton and Co,2014.

[19]Mc Kinsey Global Institute,Jobs Lost,Jobs Gained:Work force Transitions in a Time of Automation,2017:1-160.

[20]Weinberger D.Too Bigto Know:Rethinking Knowledge Now That the Facts Aren't the Facts,Experts Are Everywhere,and the Smartest Person in the Room Is the Room,Library Journal,2011.

 

The Era of Artificial Intelligence:Technological Development, Risk Challenge and the Reconstruction of Social Order

Zhang Chenggang

 

Abstract:At present,artificial intelligence has entered the stage of commercial application from the stage of scientific experiment,and the development of artificial intelligence is ushering in the critical point of the outbreak.The Triple Logic Paradox of Master Slave,Unevenness,Aims and Tools in a Technological Society Based on Modernity is continuously extending into the information society.Meanwhile,the artificial intelligence society that contemporary China is entering is facing the triple challenges which is composed of new globalization,new industrial revolution,and social transformation.Faced with the triple challenges of history and the triple challenges of the present era,mankind is facing another technological tsunami and reconstruction of social order,and the artificial intelligence society needs an“out of date”thinker.Artificial intelligence is an important technological invention in human society,and there are potential social risks.Artificial Intelligence makes modern technology further“out of control”between the two poles of“controllable”and“out of control”.The artificial intelligence has not yet solved the problem of uncertainty of the logic foundation of the algorithm itself.As the foundation of artificial intelligence,the data is not available for interpretation and are confront with non-traceability challenges.We are facing the risk of mass disclosure of the loss of principal part and privacy in the ethical norms.In the application of artificial intelligence society,it is necessary to meet the social regulatory challenges and to deal with the employment impact of artificial intelligence instead of human labor.To develop artificial intelligence to prevent the concept of hype and artificial intelligence and innovation,the future we should advocate the ethical study of responsible persons,take the shape of artificial intelligence social order reconstruction and should be in the way for the mutual construction of“good governance”and“good intelligence”.

Keywords:artificial intelligence;technological society;logic paradox;the reconstruction of social order; risk

 

责任编辑:刘媛媛