欢迎来到速发表网!

关于我们 登录/注册 购物车(0)

期刊 科普 SCI期刊 投稿技巧 学术 出书

首页 > 优秀范文 > 人工智能的伦理思考

人工智能的伦理思考样例十一篇

时间:2023-06-08 09:15:41

序论:速发表网结合其深厚的文秘经验,特别为您筛选了11篇人工智能的伦理思考范文。如果您需要更多原创资料,欢迎随时与我们的客服老师联系,希望您能从中汲取灵感和知识!

人工智能的伦理思考

篇1

本文将从佛教世界观的本源出发,探讨如何在人工智能中植入具有自主导向功能的认知能力,进而讨论佛教世界观与人工智能自主意识方面相关伦理问题的交叉融合,并深入探究机器人是否可以设计成具有自我进化能力、具备同情心和高智商的智能体。

一、佛教世界观的人工智能的

伦理表征

佛教世界观的核心是否定灵魂,拒斥自我。佛教

世界观认为,从苦楚中获得解脱的方式是合理的,它体现了人类自身心理冥想的一个过程,直到他确信这是一个短暂、瞬息的自我错觉。而如何认识到这一错觉,在佛教经典《阿毗达摩》中,谈到了对于人性精神元素的各种分析以及与此相联系的有关痛苦和解脱的方式。它认为打破这一心理错觉的方法很多,但最为根本的是被称为五蕴的色、受、想、行、识,即:色蕴、受蕴、想蕴、行蕴、识蕴。

五蕴通常被看作是具有因果性的一种解释。佛教世界观认为这种因果性的存在正如一个火苗从一根蜡烛传递到另一根蜡烛,虽然这两个火苗有因果联系,但却不能说这是同一个火苗,也就是说五蕴具有独立性。因此,就出现了这样一个问题,意识的成分是否能够分解?佛教世界观认为意识需要以相互联系的五蕴为基础,如果其中一个丢失,那么就可能导致脑损伤或使冥想误入歧途,从而使得意识终止。例如,植物人就有可能表达了这样一种状态,它身体的某一部分感觉或预知能力存在,但却没有意识或意愿。这一在神经科学中面临的问题也恰恰是人工智能设计过程中所需面对和解决的。

在五蕴中,我们认为物理对象或虚拟对象均与某项感官联系,而人工智能自身即是一个虚拟的对象,它有助于提升人类对某一物理现象的相关感官,揭示客观世界的结构和本质。关于虚拟对象我们从Goertzel的一个实验进行介绍,“如果我们创造一个虚拟的世界来支持简单的物理现象,那么我们很有可能会得到这样的一个结果,也就是人类把人工智能融合

收稿日期:2013ㄢㄢ1;修回日期:2014〢4ㄢ5

基金项目:国家社科基金重点项目“基于逻辑视域的认知研究”(11AZD056)

作者简介:王东浩(1982),男,河北衡水人,南开大学哲学院博士研究生,主要研究方向:科技哲学,逻辑学

进生活中,并在生活中改善人工智能的设计,通过人工智能与人类活动之间的交叉融合,最终有助于提升人工智能关键部位的感应”。[2]换句话来说,像人类思考那样,人工智能需要的是自身与物理世界的交互,从而使得其具有与人类相类似的诸如目标、因果性、状态、界面以及界限方面的感官经验等。这一观点与佛教认识论的思想类似,即由感官数据而形成的第一直觉对于意识的发展是关键和必要的。Francisco Varela称这种感官上的表现为自我创生、自我组织[3](476)。这一自我创生结构具有限定的范围和内部运行程序,并能够实现有机体的自我维护。但这仅仅是感官领域一个随意的发生过程:“这里的自我是完全虚拟的,它只是为交互作用提供了一个界面,但由于人们不能准确地把握它,因而对它的认识也是虚幻和不确定。”[4](209㈢22)正如这样一种情况,人们通过显微镜观察原子结构和量子泡沫的时候,通常存在物会以一种类似幻觉的形式出现,这种把实体物与幻觉分离的感觉是一种虚幻的“大众心理”,它实际上是通过冥想而实现的。

从佛教的观点来看,这些感官的直接作用是引起人们的注意,然后形成更为复杂的意志。在Froese与Ziemke看来,“人与智能体在交互过程中经常遭遇困扰,因此有必要在人工智能中建构一个类似于佛教感官的链接,这样有助于实现交互双方的联系。”[3](450)在智能技术发展初期,这一链接主要表现在一些简单的动作上,比如抓住或放下某物,或者表现出较为高级一些的行为,比如对噪声的厌恶情绪,而相对于佛教感官较深层次的链接还没有完全出现。

具备偏好选择、体验认知以及厌恶表征特征的人工智能仅仅是人工智能理论的部分表现。因为大多数人工智能研究的目标并非发展成迥异于人类的个体,而是把人类的特征模型化甚至延展人类认知,创造出可以体现人类思维判断的工具。我们已经创造出可以诊断疾病并与人类医师相媲美的机器人,它们具有一定的认知情绪,并可以进行情感计算。我们知道,在智能体中“情感计算”[5]通常能够判断人类的情感和欲望,这有利于实现人机交互。佛教心理学与智能科学在此具有一致性[6],它们都揭示了情感是人类自主意识和认知得以发展的基本驱动力。

在人工智能领域存在人工智能自身是否应该具有自利的一面或优先权程序的论争。对此,人工智能方面的一些专家认为,人工智能从设计之始就是无私的,它唯一的目标就是服务人类[7]。相反,佛教心理学认为为了研究自我意识的阈值,所有的智能思想都需要从发展自我开始。在佛教世界观中,自我的渴求与幻想的发展是“相互依赖提升的”[8],它们的存在是必要的并且无须解释。因此在佛教认识中,人工智能应该具有自我。

二、佛教世界观在人工智能体设计中的进路

佛教世界观基于对宇宙生命的理解,为佛教思想向智能体思想的转化提供了丰富的内涵。佛教思想根据印度教吠陀世界观,并自由地综合各地教徒所信奉的诸神,从而使得 佛教信仰得以广泛传播。然而,从一开始,佛教对于宇宙本质与起源的介绍都是有目的性的,即强化人类道德行为与超自然现象之间关系的理解。尽管在现实生活中存在写实主义的佛教徒,但是相比于传统基督教,持这种观点的佛教徒还是少数。

传统上,佛教将宇宙中的生命分为三个部分,即欲界、色界与非色界。每个部分都是轮回的。欲界主要指的是在地狱中遭受苦难的饿死鬼、动物、人类、半兽人以及神明。对此,人们通常这样理解:地狱表征的是苦难,饿死鬼表征的是欲望得不到满足,动物表征的是愚昧的化身,半兽人指的是妒忌,神明指的是快乐。[9]相比之下,人类是混合了所有层面的一个综合体,并促使人类思想的发展更多集中在精神层面。在人类范围之下,生命体被太多的苦难、欲望、愚昧困扰以至于道德与心理得不到发展。在人类范围之上,半兽人与神明则因为自利和利他两个极端的存在而 分化。

' 佛教世界观力求把机器思想设计限定在某一情绪或精神层面。大多数伦理体系不赞成设计一款具有自我感知能力的软件。那么人们在道德上能否接受一款与动物情感类似的软件呢?佛教伦理把动物看作是人类道德层面的一部分,因此需要保护它们远离伤害。佛教伦理把动物看作类似于人类的观点,体现了人类道德行为与教化能力的再生。我们可以从佛教经典中看到很多英雄人物或勇于牺牲的行为,他们的化身不乏鹿、猴子和其它一些动物,他们的这些行为促使人类灵魂进一步升华。在佛教徒看来,把人工智能设计为类似于人类的行为是不道德的,这类似于亚里士多德、康德和密尔等人对于设计快乐的机器人奴隶一样令人反感。[10]

在人工智能体思想的设计中塑造一种积极情绪,并把它限定在自我满足的极乐状态,这会促使积极情绪不会向其它不好的情绪或令人厌烦的意识转移。伴随着神经伦理学在美容神经学时代的发展,佛教心理学认为这种存在于自我意识中的快乐元素与由于多巴胺的刺激而出现的享乐状态是不同的。

另外,佛教世界观也经常把实体形式化,并把它描绘成通过冥想即可达到的一种空灵的精神状态。在这一状态下,实体是不存在的,冥想完全是精神的产物。在机器人伦理中也可能存在与此相类似的一些观点。这似乎也是可信的,因为人们有可能把智能体思想设计成能够体验模拟认知并最终达到万物合一或虚空世界的状态。在Robert Sawyer的虚构小说《WWW: Watch》[11]中对此有过描述。它讲到人工智能在一开始受到多重数据信息流的控制,这使得它失去自我意识。在关键时刻,它的人类朋友打破了其中的一些网络链接,并重新使它恢复到某一时间段的某一状态下。Sawyer的虚幻小说在一定程度上佐证了佛教的这一观点,因为在不同冥想的增加和冲击下,智能体自身情感可能难以自持,最终有可能伤害到其它个体。

佛教认识论同样也思考了这样的问题,人工智能体是否会改变自身指令而达到“神的地位”这样危险的状态。对此,那些对超人工智能所引发的危险持谨慎观点的人提出了两个可能的解决途径,其一是严格控制人工智能的发展,以确保人工智能体无法扩展自身能力。这就需要人们解决如何发展高效能的智能体,而它自身又不能学习和成长。为此,这就需要严格管理人工智能的开发者,并能够形成一个统一而有效的人工智能免疫体系,从而控制随时出现问题的人工智能体。

另一个方面是对达到“神的地位”的人工智能进行伦理编码,诸如阿西莫夫的机器人三原则[12]或者“友善的人工智能”[13]。当然,这并非完全复制人类的精神状态并把它强加给机器,因为这样人类很可能会对超人工智能或具有“神的地位”的机器人产生排斥心理。

然而,佛教认识论认为,神明自身也逐渐意识到它们面临的困境,一方面需要超越幻觉状态下的苦难,另一方面又需要强化对冥想的需求。神明的这一困境使他们陷入了漫长的悲苦境地,只有少数聪明者得以逃脱这一束缚,进行宣传佛法的活动。例如,悉达多吠达摩就因为众神的信服而传授佛法、启迪教化世人。佛教世界观也因此希望这种教化方式可以在人与超人工智能之间转移传递,从而解决现存的一些困境。

三、佛教世界观在人工智能体设计中的传承性

佛教世界观中涉及到这样一个伦理问题,也就是传宗接代是否是一种伦理行为?对此,佛教世界观存在两方面不同的认识:一方面,佛教认为传宗接代并非是一项职责,舍离无子女的生活是值得称赞的。正如很多人看到的那样,有子女的成年人丢失了很多的快乐[14],佛教世界观把烦累、孩子与配偶都视作人的附加物,最好是能够避免;另一方面,佛教世界观把传宗接代看作是上天赠予人类的一个礼物,是人类再生的一个表现,而非苦难的开始。如果人们选择传宗接代,那么父母应该谨记下面五项职责(《善生经》):① 劝阻他们不要做恶事;② 教育他们多做善事;③ 对他们进行善行教育;④ 为他们寻求相称的婚姻;⑤ 满足他们继承的权利。

人工智能的出现打破了传统的伦理关系。它把人类置于一个新型的伦理环境中,也就是人类通过机器来创造生命。Metzinger认为在我们不能确定所创造的生命是否长期处于苦难、愚昧、狂喜和其它令人不悦的状态之前,我们创设的人工智能体思想是不符合伦理标准的[15]。换句话说,Metzinger认为,创造与人类相似的具有自我意识但却缺乏学习和成长能力的生命是不道德的。《善生经》使我们认识到机器应该具有这种伦理责任,并能够理解相应的道德观念,或者我们应该培养智能体的这种思想。

这样推测起来,人类的遗传首先应该建立在幸福的婚姻基础上,而后确保这些职责能够实现。那么我们应该把什么遗传给后代呢?一般来讲,在人类伦理体系中,我们希望把最好的遗传因素传递给下一代,那么在机器思想的建构中我们应该如何去做呢?这个问题应该是智能体未来发展所需面对的,如果在认知能力和欲望方面它们具有与人类足够相似的思想特征,那么它们就有可能要求真实的工作与报酬并能够享受生活。但至少从纯理论的角度来讲,我们是否能够给予机器人后代以人类自身复杂的精神架构,以及包含在其中的人类苦难方面的因素?

Savulescu在“生殖的善行”[16]中提到,选择尽可能好的东西遗传给下一代对于生命来说是有益的。佛教世界观从 来没有专注于再生的选择问题上,在它们看来,在确定要后代之后,这一选择就已经是唯一而有效的了。但引申来讲,佛教世界观可能一直确信,如果可以对后代做出选择,父母有责任去选择那些可以实现后代自我的最好方面,并避免那些由苦难、愚昧等控制的不好的方面。同样,Metzinger谈到,在机器思想的创设中,我们应该努力创造那些具有心理感应和情感表征的,有自知之明,能够去学习、成长,并能够实现有意义生活的智能体。

四、佛教世界观在人工智能体设计中的转化和应用

(一) 佛教慈悲心的程序设计

慈悲心和智慧是佛教世界观领域的两个中心美德,神经系统科学也揭示和再创了诱发这一状态的相关因素,并表明人类同情心的根源发端于镜像神经元或者神经细胞。究于此,人工智能的研究者试图把人工镜像神经元在机器人中模型化。例如,Spaak与Haselager试图通过对选择行为的模拟来引入人工镜像神经 元;[17]Barakova与Lourens则试图通过对镜像神经元进行编码以此促使机器人与人类同步。[18]但我们认为,创设具有慈悲心的机器所需求的不仅仅是相似的行为习惯,更为重要的是创造相似的人类情感。人类的慈悲情感应该与机器的“心灵理论”(Theory of mind)一致,这就很容易达到人机交互时的共鸣状态。[19]

如果模拟行为能够成功,机器的“心灵理论”就会实现,那么在机器中就有可能设计出佛教中的慈悲心。佛教慈悲心通常分为四类:慈心、悲心、无量心、平等心。慈心指的是对于他人的幸福和快乐能无私的祝愿;悲心指的是想要去帮助那些受苦难的人从而不留下遗憾;无量心指的是共享他人的快乐而不会嫉妒;平等心通常表达沉着、镇静之意,指的是思想成熟稳定,具有公正性,且不容易因他人情感的影响而动摇。慈悲心的这些分类要求人们看清自身的虚幻,从而在面对外界环境中的极乐与苦难时,能够保持足够的明智与平常心来面对苦难。

事实上,在机器中把慈悲心模型化远比培养人类具有慈悲心要容易得多。因为在机器中把慈悲心模型化依靠的是科学技术的发展,如果我们能够通过技术手段把人类情感表示出来,这样慈悲心就有可能出现在机器中。Tim Freeman[20]提出,把人类极乐和苦难的情感在机器中简单模型化,同时把人类的幸福也转移进机器系统,促使机器自身可以实现自循环。Tim Freeman解释说这一过程不会产生可以洞悉人类智慧的生命,它最多也可能是一个能够为人类提供咨询的伦理专家系统,不会以一个主体的形式提出慈悲心。而从佛教的观点来看,智慧、同情心这种能力代表了生命最为基本的单元,因此这一系统的出现还不完全是佛教意义上的主体。

(二) 佛教伦理智慧的程序设计

佛教学者在佛教伦理与西方传统伦理关系问题上存在争论,主要体现在自然律则、美德伦理与功利主义三个方面。

在自然律则问题上,西方传统伦理从世界本质与人类生命构造的角度出发,认为道德是可以识别的。佛教伦理则崇尚从建基于宇宙客观律则的视角出发,认为不好的行为会导致不好的孽果。在自然律则的问题上,佛教伦理与西方传统伦理具有一定的相似性。佛教伦理在自然律则方面所面临的问题是如何从因果涅槃的轮回中解放出来并走向文明。传统人类学认为这是佛教伦理面临的一个困境,它归因于佛教传统中对业力的奖励和对世俗的惩罚。

在美德伦理方面,Damien Keown认为,佛教伦理崇尚的是“目的论的美德伦理”[21]。佛教世界观认为应该为完善的道德美德与个性特征奋斗,并把它们当作最基本的道德底线,这与西方传统伦理的观点类似。但不同的是,在美德伦理中,西方传统伦理认为美德主要体现在人生的意义、人的价值、人的态度以及人的修养方面。佛教伦理偏重行动的意向性,而不管行动是否能阻止憎恶、贪婪或愚昧,也正因为伦理目标的目的性,他们普遍相信完美的道德最终肯定会到来。

在功利主义方面,西方传统伦理在机器人伦理的设计中较为推崇的是《Moral Machines: Teaching Robots Right from Wrong》一书的观点。Wendell Wallach与Colin Allen在该书中详细介绍并评论了机器人伦理程序的设计[22]。他们认为设计机器人伦理程序,自上而下的进路要逊于自下而上的进路,因为机器人性格的培养是基于其群体交互关系的一种模式。

Buga与Goertzel也赞成这一观点,他们把机器思想的形成类比于儿童的认知心理。儿童伦理观念的形成是以观察成年人的行为开始,然后再作用于他人,这与机器人伦理自下而上的研究进路是一致的。[23]也就是说,机器中的伦理思想与我们人类的伦理观念应该是对称的。因此,他们建议,人类不应该有意去剥夺机器学习和成长能力的思想。

Wallach,Allen,Buraj与Goertzel就此提出发展主义的观点,这也可能是机器人伦理方面最接近佛教进路的一个观点。但需要说明的是,佛教的智慧在于它对美德的关注,并通过冥想超越自身,以此化解大众的苦难。也就是说,佛教伦理的最终目的是为大多数人追求最好。它从基于规则的道义论出发,经由美德伦理而发展到功利主义。在大乘佛教传统中,菩萨通过很多方式来解除众生的苦难。当人们违背道德犯下错误时,为了赎罪,它们经常会求助于可以洞悉前世今生的菩萨。通常,因为菩萨是大公无私的,它把美德伦理和功利伦理合二为一,因此,对于人类这种把不道德的方式合理化的行为,菩萨会有充足的解释能力,但却不会把贪婪、仇恨或无知付诸行动。西方传统伦理却很难把美德伦理和功利伦理结合起来,这尤其体现在J.SMill的功利主义方面,因为他过分强调功利主义的重要性远远大于基本的快乐。

在机器人伦理的设计方面,佛教世界观崇尚美德伦理与功利伦理的结合,这可能是机器人未来发展的一个必经阶段。单纯的功利性的设计进路是片面的,Grau在功利性伦理的研究中提到,机器作为道德主体应该具有无私或忘我的精神,并且应该限制机器人人格特性尤其是功利主义特性的形成,这样有利于避免机器人具有大公无私的精神负担。同时,Grau还提到“对于机器人来说,培养它的道德属性,但同时又强迫它抑制自己的情感,并乐于奉献自身,这似乎是一个非常不道德的过程”[24]。然而,从佛教伦理的世界观来看,功利主义并非是对于自身的一种抑制,它往往是个体 欲望和自我错觉的产物,是个体苦难的根源。功利主义应该在个体美德的引导下,寻求自我牺牲、自我超越、自我奉献。

(三) 佛教自我超越行为的程序设计

佛教伦理通常包含以下几个方面的美德:宽宏、慷慨、忍耐、勤奋、专一、明智。它们都有助于冥想的升华和人类自身的超越。

从设计学的角度分析,人工智能的设计应该从忍耐、慷慨与勤奋等道德行为的角度出发。在智能体设计之始就重点开发它的美德意识,相比于有机体伦理意识的培养,智能体思想程序的设计可能要容易一些。对于忍耐、慷慨与勤奋等这些美德的开发,佛教世界观赞同Wallach与Allen的观点,也就是通过人与智能体的互动,促使人工智能体思想逐步从简单走向成熟。人工智能体的伦理意识转向美德的价值观,有助于智能体抛弃自私观念,并在行为过程中保持快乐和充满活力的状态。

美德传统中忍让与勤奋的习惯有助于培养智能体长远的发展前景,同时也能有效抑制人类在智能体应用方面对短期利益的追求。神经科学已经证明了毅力、耐性和道德行为之间存在密切的联系,人们在实践中也已了解到当血糖含量较低时,自我控制能力随之降低。例如,注意力下降、行为焦躁等。在这种情况下脑部活动能力下降,人们很难清晰地表达自身意愿[25]。这一表现在人工智能的设计上具有启发意义,我们应该培养和锻炼智能体自身的自律行为,避免智能体遭受短期利益的破坏,促使它走向充满智慧的个体。

在佛教传统中,通往智慧的关键是能够看破虚幻,并从不断变化的现象中探求事物的本质。在佛教的这一进路上,人工智能的设计应该重点从事物所具有的本质属性的角度去借鉴,这是事物持久性保持某一状态的根本所在,洞悉和习得这一属性,有助于智能体随时把握事物之间的联系和应对随时出现的一些状况。

五、结论

佛教心理学并非建基于科学模型或实验调查,它是以人类自我调查研究为基础的。从道德心理学的不同表现我们可以看到,不同的道德表现其来源也不一样。因此佛教心理学也应该从不同方面学习和借鉴,尤其是随着认知科学的发展,佛教心理学应该向神经科学中学习一些经验。尽管佛教世界观对于智能体伦理体系的发展提供了一些建议,但由于机器思想的变化莫测,我们认为佛教心理学与神经科学也应该从机器思想中吸取营养。

短期来看,机器思想很有可能不会转化成独立的意识,或者说是发展成独立的道德体。因为在设计之始,我们对于道德或慈悲型智能体的关注多是从人类伦理体系的角度出发的,而并非创造一种具有自我意识的生命。在关涉人类独特的意识、自私、苦难、喜好或不喜好等情感因素的时候,我们并没有把它们具体化。如果我们要开发智能体的道德观念,这就需要机器具有类似于生命体的镜像神经元,以及可以感知欢乐和疼痛的心智理论。因此,只有从这一角度出发,智能体才有可能感受到其它生命体的意识状态,智能体也才能够习得生命体所具有的道德情感和美德意识。最终,随着其洞悉能力的不断成长,它也许能够感受到所有生命体的情感状态,当然也包括它自身。

篇2

人工智能技术作为社会媒介化发展的特殊产物,不仅能够建构起智能媒介化的信息社会,更能深入到传媒研究领域,引导影视传媒研究朝着“互联网+教育”的方向发展。当前影视传媒教育正面临重要的转型阶段,如何通过媒介信息技术调整现有的理论学习模式和教学培养目标,已经成为影视教育进行改革创新的突破口。基于人工智能为教育信息化带来的机遇和挑战,影视教育正致力于从“刀切教育”迈向“精准教育”,从“课堂缺席”转为“课堂在场”,从人才培养模式到教育信息平台搭建,都在不断强化智能教育培养,力求为影视传媒教育的智能化改革和实践提供决策依据。

一、影视教育智能化发展的应用价值

智能化影视传媒研究是教育信息化极为重要的应用场景,人工智能技术不仅拓宽了影视传媒教育的研究方向,同时也在技术手段、渠道搭建、傳媒伦理等层面发挥着重要作用。

1.消除数据鸿沟,发挥智能传媒教育技术赋能和知识平权的双重功能。影视传媒研究是以实践为基础的理论性教学,以培养创新型和复合型人才为教育目标。教育学者是影视文化传播的驱动者,因个体间存在传播技能、信息储备和交往行为方面的差异,造成影视传媒教育具有严重的知识鸿沟。在影视研究学者步入算法教育的重要阶段,智能教育平台可通过读取人的反馈改变原有的教学模式,调整每一位受教育者的天赋类型。与此同时,教育学者能够充分利用算法技术和人工智能手段,获取定制化的影视资源和学习条件,以技术逻辑引导学习流程,用分析框架提高教学模式的理论性和可操作性,通过强化教与学的变革场景,激活文化创作的想象力和逻辑性思维,使科技创新在理性与感性、理论与实践的引导作用下,从一般的理论教学形成智能媒介化的信息教学模式,从单向传授转变为双向互动的学习教育模式。

2.拓宽学习渠道,推动教育形态从理论课堂到智能媒体教育课堂的变革。人工智能技术与影视教育教学的深度融合,正引发起一场新的教学革命。从教育手段和学习途径上来看,原有的课堂教学已无法满足理论和实践的双重需求,大数据催生出的智能化影视教育,在虚拟世界和现实世界间搭建起新的算法课堂,利用人工神经网络简化理论教学的概念,又通过具有超强运算能力和通讯能力的技术手段协助实践操作。例如,人工智能照相机作为辅助型的教学工具,被运用于智慧课堂的摄影实践教学中,借助云端技术和物联网连接远程数据中心,可以帮助不懂摄影技术的学习新手尽快了解电影拍摄的理论框架和基本技能,推动教学场景从应用性教学到智慧型课堂的氛围建构。人工智能与影视教学的跨界融合,成为智能传媒教育进行颠覆式创新的重要表现形式,教育形态正逐渐从智慧课堂过渡到智慧校园,从传统的理论范式过渡到智慧媒体的应用型范式,帮助构建起新的学科话语体系。

3.重视传媒伦理,推动智能化影视传媒教育价值观和技术性的生成。人工智能是以追求效益为初心的理性工具,在技能研发阶段尚未对伦理规范提出强制要求,技术伦理向来是人工智能难以逾越的一道鸿沟;影视传媒教育则是以培养学生的伦理观和价值观为出发点,重视以道德审美为核心的理性意识。智能化传媒教育将信息技术和影视教学进行结合,使得理性工具得以同理性意识深度融合,人文关怀建立在技术作用之上,这既是培养受教育者核心价值观的时代需要,亦是强化人工智能技术伦理的有效途径。人工智能时代,强调智能化影视传媒教育技术性和价值观的生成,与其说是建立在影视教育应用场景上的技术伦理规范,不如说是借信息技术完成对传媒伦理和受教育者价值观的理性建构,让人工智能发展紧密联系意识形态和伦理道德问题,加深技术手段和教育学习的彼此作用,从而获得传媒教学在伦理层面的共识。随着传媒影响力的逐步扩大,以内容为载体的影视教学活动意味着要担负起更重要的教学责任,学科研究核心价值观的建设必须以注重传媒伦理和技术伦理为教学基础,重新建构现有的伦理道德观念,为人工智能技术注入价值观的活的灵魂。

二、影视教育智能化发展的风险问题

人工智能技术的迅速发展,赋予影视传媒教育极大的应用价值,与此同时也面临着潜在的风险问题。

1.灌输式教育仍占据主流,智能化影视教学陷入价值认知困境。在人工智能技术出现以前,理论+实践的教学策略已经成为一种固定的形态存在于传统影视教学工作中,受教育者根据统一的培养目标规划自己的学习方式,包括影视创作及影视理论等相关课程都按照相同的培养模式进行。由于教育主体对人工智能的认知存在两极分化的现象,过往只能够通灌输式对学生进行强制教育,智能化影视教学则是处于小范围内的实践和创新。对影视教育而言,理论与实践是学习的内容,继承与创新才是研究的实质。明确人工智能教育的价值认知,从灌输教育逐步迈向定制化教育,为高校的人才培养提供重要的智力支持,应当是影视教育智能化转型发展的着力点。

2.智能教育应用场景缺乏思考,其深度和广度有待进一步挖掘。当前,智慧课堂、智慧校园的出现奠定了智能传媒教育的基本雏形,依靠大数据、物联网等信息技术支撑的智能传媒教育,在平台搭建层面已出现显著性成果,但对应用场景的深度和广度挖掘还存在明显问题。影视教育智能化应当以追求个性化和定制化教育为目标,崇尚的是终身学习的教学理念,不应当将人工智能技术仅局限于传统的教学课堂,除了要从“线下”走向“线上”,还需要考虑到以人机交互为主要形态的教学应用场景,挖掘人工智能教育更多的应用情境和展现方式,从而对影视课堂的理论与实践教学价值提供合理的在场性证明。

3.专业壁垒依然存在,智能化教学成果马太效应极为明显。智能教育世界要求培养更加多元化的应用型人才,但人工智能的马太效应逐渐渗透到影视传媒教育工作中,也会导致教学成果受到出现严重的失衡现象,难以满足高校对人才培养的多元化需求。作为艺术研究的影视教学活动,其科学精神和创新实践同样重要。尤其在媒介融合背景下,要想推进受教育者从“影视学者”逐渐过渡到“影视作者”,人工智能不仅需要满足师生的定制化教学任务,还应当破除专业和行业的壁垒,对其相关联的学科和传媒领域进行合作,才能够改变当前智能化影视教育在教学模式上面临的不足,不断为社会输送更多的应用型人才。

三、影视教育智能化发展的转型实践

面对智能传媒教育的风险与挑战,影视专业更应当立足于自身的教育发展特色,从人才培养模式、应用场景建设、教育资源整合等方面,推进影视教育智能化发展的转型实践。

1.从“灌输教育”走向“精准教育”,创建新的人才培養模式。智能传媒教育范式的自主性建构,应当立足于对传统教学效率和人才培养模式的颠覆。基于当前影视传媒智能化发展在人才培养模式层面的不足,其转型实践需要从受教育者的个性化需求出发,在师生、家长和社会的通力合作下,创建新的人才培养模式,利用碎片化学习完成系统化的学习过程,逐渐从“灌输式教育”走向“精准化教育”。例如,人工智能时代对影视学生的培养更趋向于“以个人为导向的系统化学习”,通过前期对受教育者的大数据整理,对每一位同学的逻辑性、想象力、创造性和沟通能力等进行分析,从影视理论和影视创作两大方向出发对受教育者形成定制化的学生画像,并提供针对性的智慧作业,帮助教师采集学生的学习情况,从而实现规范化的信息管理。可以预见的是,智能传媒时代,“互联网+教育”学习模式的生成,在推动知识平权化等方面发挥重要价值,成为影视教育智能化追求的重要转型路径。

2.从“课堂缺席”走向“课堂在场”,打造新的传媒教育平台。人工智能不仅要改变传统的人才培养模式,同样也应当提供更加多元化的学习应用场景。过去的影视研究多局限于单一的课堂场景,采用课上理论和课下实践的方式进行授课,完成影视教学的闭环。人工智能时代,影视传媒教育应当调整原有的受教育模式,通过搭建合理的人工智能应用平台,可以巧妙地将课堂场景与智能技术结合起来,为受教育者提供更加多样性的教学应用场景,从而实现成长课堂的“在场共生”。例如,人工智能可以带动影视制作的推陈出新,通过搭建智慧超媒体系统,将电影屏幕从影院搬到校园,自动生成无穷界面。与此同时,影视传媒的智能化还可以帮助教师自动生成电影梗概,将理论性教学转变为可视化形象,使电影理论同定制化的影像人物之间建立匹配关联,让教育场景从线下逐步延伸到线上,为影视研究提供重要的云服务。

篇3

比如,美国政府2016年10月份就制定了一个野心勃勃的目标:在30年内把美国的交通事故死亡人数降为零。2015年美国的交通事故死亡人数增长7.2%,死亡人数为35092人。美国国家高速公路交通安全管理局(简称“NHTSA”)表示,人为因素在交通事故中占比达94%,无人驾驶可以完全消除这项因素。

众多学者和企业更是将其视为重新激活世界经济的主要引擎之一。不过,在这之前还有很多技术、法律乃至伦理问题需要解决。

无人驾驶瓶颈

美国当地时间9月23日,谷歌无人车在山景市与一辆商务货车撞在一起,这可能是谷歌汽车遭遇的最严重车祸。谷歌汽车的右侧车门被撞出大面积的凹陷,车窗遭到一定程度的损坏。车祸没有造成人员伤亡,气囊已经弹开。这起事故是货车司机的失误造成。2016年2月14日,谷歌无人驾驶汽车与一辆公交巴士发生轻微碰擦的事故,这是谷歌首次表示无人驾驶汽车应当“承担部分责任”,地点同样位于加州山景市。

特斯拉公司生产的S型电动轿车则已出现数例自动驾驶模式下的交通死亡事故。2016年1月,河北省邯郸市就曾发生特斯拉自动驾驶致人死亡事故,这应是全球首例。另有业内资深人士透露,特斯拉自动驾驶出现的事故其实多数未被报道。

这些事故都不断引发外界对自动驾驶技术是否足够成熟的质疑。

根据美国加州2012年通过的相关法案,允许无人驾驶汽车上路测试,但需要合法驾车人坐在驾驶座位上,在紧急情况时操纵汽车。特斯拉汽车的操作手册也提醒驾驶者,即便在自动驾驶中,也需要把手一直放在方向盘上。但现实中,驾驶员往往喜欢冒险和刺激。

至于技术成熟后的大规模商用,NHTSA表示,没有方向盘和油门的无人驾驶汽车在美国市场销售之前,相关法规必须做大的调整。

在中国,无人驾驶汽车同样面临法律障碍,问题主要集中在牌照和事故责任认定两方面。

无人驾驶汽车一旦在测试或商用时发生事故,就面临责任划分、理赔等问题。无人驾驶系统、司机、对方的责任如何划定?由于无人驾驶汽车是由多家企业集合研制,这些企业的责任又将如何划分?如果无人驾驶和有人驾驶可以切换,责任又将如何划定?

“应当尽快对事故后保险公司的理赔、无人驾驶技术平台与保险公司对于硬件、软件供应商的责任追偿开展立法工作。只有健全理赔体系时,才能够消除无人驾驶技术的测试与研发过程中各方的后顾之忧,切实推动技术的进步与发展。”中国政法大学传播法研究中心副主任朱巍向《凤凰周刊》表示。

中国科学院大学公管学院副教授刘朝表示,由于无人驾驶汽车仍在测试阶段,技术路线等都不确定,国家层面法律的修订和出台应慎重,自下而上的政策法规尝试和探索不失为一条稳妥而高效的路径。另外,在此过程别需要可靠的传播媒体和真正中立的社会组织发挥积极的作用。

人工智能引发失业潮?

2016年1月,IBM公司开发的Jill Watson分析系统开始帮助美国佐治亚理工大学的毕业生解决毕业论文中遇到的各种问题。Watson在回复电子邮件和论坛发帖时,语气随意,与正常人无异,而且会使用很多口语,能在几分钟之内准确地回应问题。

在五个月的试验中,没有学生发现他们的助教是机器人。

类似的人工智能技术已经被应用在法律服务、医疗助理、金融分析等多个领域,与此相应,部分岗位正在被这些智能机器所替代,从蓝领到律师,从医生到华尔街分析师。

人工智能技术最有价值的应用可能是金融业。在金融领域,每提升1%的收益就能获得巨大的财富。毕马威在近期一份报告中预测,到2030年银行及其服务可能“消失”,类似于苹果Siri的人工助手将接管客户的生活与金融服务。传统银行的多数部门或将消失,而专业的服务则将获得更大发展。

一些评论家预测,人工智能会使得某些工人的技能多余化,那些被自动化所取代的工人不得不寻求新的就业机会。即便这部分工人能够找到新工作,也常常是低附加值的,且工作稳定性更低。从这个角度讲,人工智能不仅可能增加社会不公,更会带来永久性的失业以及贫穷。

诺贝尔经济学奖得主斯蒂格利茨就认为,劳动市场正因为技术变化而发生重要转变,要保护劳动力,就必须对人工智能和自动化系统相关的监管和其他政策变化保持高度重视。

真格基金创始人徐小平近年投资了多个人工智能项目。在他看来,人工智能对人类的影响和冲击将是全方位的。

“有人说,在美国除了卡车司机和销售员,其他工作都在被替代。不幸的是,卡车司机也在被替代。高中学历的美国卡车司机年薪7万美金。所以,特朗普崛起了,支持他的多数是没上过大学的白人,他们在全球化和高科技面前成为失意者。”徐小平告诉《凤凰周刊》。

新近涉足人工智能的雅瑞资本联合创始人张瑞君相对乐观,她告诉本刊,目前投资的项目其实主要是代替人们所不愿从事的低端机械化工作,使人们腾出手来,去做更高端、更有创造性的工作,这是一个逐渐的过程。“而且人工智能产业本身也正在吸纳众多高回报的创业与从业者。”

三角兽科技联合创始人马宇驰就正忙于招聘多位工程师。2016年2月,他与曾效力百度度秘、微软小冰的王卓然、亓超合伙创业,目标是打造一套智能聊天对话系统。其产品主要针对物联W设备,让机器听懂人说话,并作出反馈。其公司目前已获得两轮共3000万元融资,产品已经应用在锤子T3手机、Rokid机器人等。

马宇驰向本刊介绍,根据行业预测,2020年全球物联网设备数量将达240亿部,智能终端设备将达到340亿部,产业和就业空间巨大。“如何快速提升劳动者的技能,这需要社会、政府、教育等的努力,而且人工智能也可以作为培训劳动者的工具。”徐小平说。

冲击人类生存与伦理

2016年3月,谷歌公司创造的人工智能程序阿尔法狗以4:1战胜世界围棋高手李世石,这引发了全球对人工智能的再度关注和广泛思考。有评论说,从现在起,如何管控人工智能,应该成为一个严肃课题。

人工智能的失控乃至危及人类并非遥不可及。美军无人机在阿富汗等中东地区已经多次误伤平民。

科技界的一些知名人士正呼吁禁止“杀手机器人”,他们警告称,越过这一界限将启动一场新的全球军备竞赛。尽管“机器人士兵”仍限于设想,但伴随人工智能快速发展,军队可能在未来20年内部署这类机器人。事实上,包括中国在内的各大国都在加紧研发水、陆、空无人作战平台。

根据摩尔定律,计算机的运算能力每两年就翻一倍,假以时日,尤其人工智能具备强大的自进化能力后,其威力可能超出人类想象。也许它将能让人类永生,同样可能的是地球上所有生命的终结。

物理学家史蒂芬・霍金是忧虑派。“人工智能的强力崛起,可能是人类历史上最好的事情,也可能是最糟糕的。”霍金在一次演讲中说,“将来,人工智能可能会发展出来它自己的意志,一个与人类相冲突的意志。”

当然,机器人也可能并不与人类冲突,而是发展出人类的意识与情感。这同样会遭遇棘手的法律和伦理问题。

篇4

关键词:人工智能;老年健康管理;老龄化;养老问题

作者:向运华王晓慧(武汉大学社会保障研究中心,湖北武汉430072)

人口老龄化是21世纪我国经济社会发展的重大国情,截至2018年底,我国60周岁及以上人口有2.49亿,占总人口的17.9%。人口老龄化态势加剧的同时,空巢老年人占比持续攀升,独居老年人群健康状况不容乐观,有74.7%的老年人患有至少一种慢性疾病。城乡失能、半失能老年人口近4063万,上门看病、康复护理等医疗健康类服务需求始终居于老年人各类需求首位。总书记明确指出“为老年人提供连续的健康管理服务和医疗服务”,健康老龄化成为健康中国时代和老龄化时代的重要命题。

万物互联的加速到来与人工智能技术的迅速崛起,正在改变着人们的社会资源获取方式和生活方式。AlphaGo大胜人类棋手,标志着人工智能已在某些领域走到了人类智慧的前列。以互联网为载体和AI为实现工具的经济发展新形态正在逐渐形成,为社会各领域创造了前所未有的机遇,也给老年健康管理模式的突破与创新提供了现实可能。智慧健康养老由此产生,其最大的特点在于大数据收集、需求的智慧决策与服务的精准投放。2017年工信部、民政部和卫计委联合印发《智慧健康养老产业发展行动计划(2017-2020年)》,强调利用新一代信息技术产品推动健康养老服务智慧化升级。各地积极开展智慧健康养老应用试点,打造“硬件环境+智能设备+互联网信息平台+居家养老服务”的健康养老生态系统。如何发挥人工智能技术在老年疾病预防、诊断、紧急救助、治疗与康复中的作用,如何有效联接医疗服务机构以确保老年人享受到更高效、更优质、更便捷的健康服务,是当前亟待研究的现实问题,这对于降低空巢老人独居风险,缓解老年护理人员短缺问题,提高老年人的健康水平具有重要价值。

一、立场博弈:人工智能时代老年健康管理的机遇与隐忧

(一)人工智能的崛起

人工智能(ArtificialIntelligence,简称AI)起源于1950年“图灵测试”的理念,其首次被公开提出可追溯到1956年“人工智能之父”McCartney在美国会议上的报告。随后人工智能随着技术的发展、社会的进步不断发展,1960年人工智能已能够理解自然语言、自动回答问题和分析图像图形等,20世纪80年代又获得了学习和认知能力。21世纪以来,物联网的加速普及、大数据的崛起、云计算等信息技术的突破,人工智能迎来了发展高峰,逐渐形成了深度学习、跨界融合、人机协同、群智开放、自主操控等新的特征,开始具有自我诊断、自我修复、自我复制甚至自我创新的能力①。人类相继进入了网络社会时代、大数据时代与人工智能时代,三者共同构成了新的社会时代②。

关于人工智能的概念,国际人工智能专家N.J.Nilsson将人工智能视为怎样表示知识、怎样获得知识及怎样使用知识的科学③。其后,学者对人工智能的概念从类人、理性、思维与行为等四个方面着手定义,有学者进而从学科角度对人工智能进行了解释,如国内学者吴汉东将人工智能定义为研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。综合诸多学者对人工智能的认识,笔者认为人工智能的实质是基于人类的设定与要求,能以与人类智能相似的方式作出反应的智能机器或软件。

人工智能时代的到来,正在改变甚至颠覆人类现存的生产、工作与交往方式。2016年美国的《国家人工智能研究和发展战略计划》指出,AI系统在某些专业任务上的表现胜于人类。1997年国际象棋、2011年Trivia、2013年Atari游戏、2015年的图像识别与语音识别、2016年AlphaGo等AI产品的问世与应用,成为AI超越人类的里程碑事件,见证了AI的智能水平和社会意义。近十年来,人工智能愈发广泛地应用在社会各个领域。农业领域,人工智能应用于自动播插与灌溉、日常田间管理、采收与分拣、产品检验、虚拟在线销售等产前、产中和产后各个环节,大大减轻了人类的劳动量④。工业领域,工业机器人广泛应用于汽车、电子、家电制造等生产线,缓解劳动力供需矛盾的同时提高了生产效率。服务业领域,微软“Cortana”、苹果“Siri”、联想“小乐”等智慧客服系统为大众所熟知;几乎所有股票交易员已被机器人取代,投资顾问、风险审查和安全防范监控监管都普遍智能化。公共服务领域中,人工智能亦发挥着日益重要的作用,如用人脸对比技术来筛查犯罪分子;人工智能辅助医疗诊断与手术;人工智能用于智能评测、个性化辅导等等。人工智能也开始进入艺术创作领域、心理服务领域。学界普遍认为,弱人工智能技术在当前已基本实现⑤。

(二)人工智能时代老年健康管理领域的机遇

当前,在新一代信息技术的引领下,物联网迅速普及,大数据快速积累,算法模型与运算能力持续突破,智能行业应用快速兴起,为我国人工智能的迅速崛起提供了现实契机。从人工智能技术层的语音识别、自然语言处理、图像识别和生物识别等,到人工智能应用层面的工业4.0、智能农业、无人驾驶汽车、智能家居、智能金融、智慧医疗与智能教育等,均得到了爆发式增长。我国正处于医疗人工智能的发展高峰,2016年中国人工智能+医疗市场规模达到96.61亿元,增长37.9%。据估计到2025年人工智能应用市场总值将达到1270亿美元,其中医疗行业将占市场规模的五分之一⑥。人工智能在老年健康管理中的应用主要体现在通过生理参数识别设备和无线射频识别装置等智能采集老年健康数据,为老年人提供双向、互动的居家健康监测、健康咨询、健康评估、健康干预服务以及紧急救助服务,克服时空限制,将健康管理贯穿疾病预防、诊断、治疗与康复整个过程。人工智能时代为健康管理尤其是老年健康管理提供了全新的途径,在优化老年健康管理模式过程中具有重要价值。

第一,人工智能的发展为缓解医护人员短缺提供了现实可能。据世界卫生组织公布的数据,欧盟关于每千人拥有护士数量的基本规定是不少于8人,挪威以17.27人位居世界第一,美国和日本分别是9.8人和11.49人,发展中国家例如巴西和南非,分别是7.6人和5.1人,然而我国每千人拥有护士数仅为2.36人。即使是按照大多数国家的5‰计算,我国护士缺口也多达350多万,如果按照欧盟的标准,则缺口更大。与此同时,我国社区养老服务专职人员数量少且增长速度缓慢。民政部2009年开始统计社会服务职业技能人员中的养老护理员,截至2016年我国养老护理人员仅8528人。根据第四次中国城乡老年人生活状况抽样调查结果,目前我国失能、半失能老年人口约为4063万,占老年人口数的18.3%,按照3:1的国际标准计算,我国需要超过1300万的护理人员。同样,虽然国家大力推进医养结合,将老年人作为重点人群纳入家庭医生签约服务,但家庭签约医生覆盖率仍不容乐观。如何“以少足多”是摆在当前我国政府面前的重要议题之一。人工智能的崛起为化解这一医疗难题提供了新路径。人工智能环境下,智能护理等机器的应用与推广,大大减少了老年人对护理人员的需要,虚拟医疗助手替代护士,在医生诊疗之外提供辅的就诊咨询、健康护理和病例跟踪等服务,既减少了老年人前往医院就诊的次数,又有助于提高护理能力。显然,这些对于缓解老年健康供需矛盾有积极意义。

第二,人工智能的发展为医疗机构提高服务效率提供了技术支持。一直以来,医疗服务效率都是备受关注和争议的问题。医疗服务效率,即医疗机构在投入与产出之间的比率,是医疗服务领域的核心命题与重要目标。近年来,随着我国医疗体制的不断改革与发展,各级医疗机构的效率有了显著提升,但受制于传统医疗机构管理模式的惯性思维影响,医疗机构的服务效率与民众期望仍有差距。新时代医疗服务效率的提升不仅需要制度的变革,也需要服务工具的革新。人工智能的发展为优化医疗服务提供了便利。一方面人工智能的应用降低了人力成本。医学影像占医疗数据的90%,而且这一数据仍在攀升,年增长率约为30%,而放射科医师数量的年增长率仅为4.1%,远不及影像数据增长速度。借助AI技术分析医学影像,将大大缓解医院缺少医生的压力。此外,语音技术在医疗行业的普及,也正在将越来越多的普通医生从日常机械式的医案录入工作中解放出来,提升录入的效率,降低失误率。另一方面,人工智能的应用也提高了医疗服务能力。人工智能辅助诊断技术应用在老年人某些特定的病种领域,几乎可以代替医生完成疾病筛查任务;智能手术机器人的应用既能保证精准定位,减少老年患者的疼痛,又能防止传统手术易带来的传染疾病等危险;人工智能参与药物研发,对于提高针对老年患者潜在药物的筛选速度和成功率,缩短研发时间与成本有实际意义。综上,人工智能的嵌入打破了以往医治全程医生亲力亲为的运作模式,智能机器的自主研判与决策能力,对于降低人力成本,大幅提高医疗机构、医生的工作效率与质量,减少不合理的医疗支出有积极意义。

第三,人工智能的发展有助于提高老年人自我健康管理能力。多数疾病都是可以预防的,但是由于疾病通常在发病前期表征并不明显,到病况加重之际才会被发现。而且由于老年人机体形态的改变和功能的衰退,对于疼痛和疾病的反应变得不敏感、不典型,很多病症易被忽略或误诊,加上老年人行动不便,其中有多数老年人即使不舒服也不愿前往医院进行诊疗。人工智能的应用大大缓解了这一状态。人工智能技术与医疗健康可穿戴设备的结合可以实现疾病的风险预测和实际干预,实时监测老年人的生理参数,其双向数据传输、在线沟通、便捷有效的特点,一方面可帮助老年人实时了解与掌握自身的健康状况,享受个性化的健康管理和健康咨询服务,满足其健康教育需求;另一方面也能提高老年人自我健康管理意识,促进其积极参与自我健康管理和自我照顾,实现医疗卫生服务重心前移和全民健康管理。人工智能环境下的自我健康管理的实现延伸了传统医疗的覆盖能力,节省了传统医疗方式的时间、空间成本及医疗费用,能够有效缓解老龄化带给整个社会医疗系统的负担。此外,居家健康管理系统能为卫生管理者提供健康数据,有助于建立完备、标准化的居民电子健康档案和区域卫生信息共享平台,使政府突发公共卫生事件监测和应急体系的运转更为高效、准确。

(三)人工智能时代老年健康管理领域的隐忧

万物都有两面性,人工智能同样是把双刃剑,人工智能从诞生至今,其对伦理的冲击就不断被讨论。人工智能给老年健康管理带来巨大便利的同时,也对道德伦理问题提出了重大挑战。与人工智能的一般伦理问题相比,人工智能在老年健康管理中的应用因其服务于老年人这一特殊群体表现得十分特殊与突出。主要表现为两个方面,一是老年人人格与尊严的多方面权益保障伦理问题更为加剧,二是老龄社会正义伦理问题更显突出。

老年人人格与尊严的多方面权益保障伦理问题体现在隐私泄露、社会孤立与老年人的“物化”三个方面。首先,为更好地提供全方位健康管理服务,智能老年健康管理系统和智能设备需要采集老年人日常起居全时段、全方位、无盲区、长周期的海量生理数据,其中绝大多数的数据属于隐私数据。这些数据通过简单的分析和挖掘,就能得出老年人的生活习惯、身体状况等信息,一旦被无意或有意泄露,极易被不法分子所利用以进行精准推销甚至精细诈骗等违法活动,这对于易受骗的老年人群体来说无疑是巨大的隐忧,由此可能带来的损失也不可小觑。《世界人权宣言》第12条规定任何人的私生活、家庭、住宅和通信不得任意干涉,他人的荣誉和名誉不得加以攻击。正如一些学者认为我们应该对于弱势群体运用特别的隐私保护政策①。然而目前我国的相关法律和政策还不尽完善,如有关病历资料保护的法律或文件(《刑法》《侵权责任法》《医疗机构病历管理规定》等)中多为宣示性条款,也尚无老年人隐私安全的针对性文件。如何保证健康数据在实时采集、传输、存储、分析与使用过程中的安全,数据应当被保留多久、谁拥有隐私数据的访问权等都是智能老年健康管理领域亟需解决的隐私方面的具体伦理问题。其次,智能机器监护老年人可能导致减少老年人社交、子女的陪伴。关于智能护理机器人的引入对老年人心理问题的影响研究表明,使用护理机器人的老年人易出现社会孤立现象,进而导致尊严受损②。过多的智能既会减少老年人外出和交流的频率,也使子女或亲朋责任感降低,对老年人的关怀止于虚拟问候,而不再是频繁地看望与聊天。有学者认为,健康助手功能会使原本亲近的护理关系转换为远程的虚拟的照料关系③。从而加剧老年人心理上的空虚感与孤独感。如何缓解和调节老年人心理问题是人工智能在老年健康管理应用过程中不得不面对的问题之一。最后,老年人的“物化现象”也是值得关注的具体伦理问题。所谓物化,Kitwood对其的定义是:像对待无生命物质那样对待人:推、拉、拽一个人,不把他当作一个有生命的个体。Astell曾认为辅助机器人可能会机械地控制使用者,并逐渐使其变得失去自主性④。智能护理机器人等操控式的服务过程有可能损害老年人自主意愿,老年人普遍认为不应该限制他们自主选择的权利,如他们不希望所有人知道他们在家中跌倒,因为某些跌倒仅是小事,自己可以克服,他们认为只有自己需要帮助的时候才应通知别人。然而这与智能护理系统一旦发现护理对象跌倒,就立即发送消息给亲人或医护人员的护理策略相矛盾⑤。机器人应在何种程度上保障老年人的自主意愿,减轻其心理负担,维护其尊严,是值得研究的课题。

老龄社会正义伦理问题主要体现在地区差异方面。由于我国国土面积大,各地区经济发展水平并不一致,地区差异、城乡差异问题都不容忽视。考虑到护理服务涉及人最基本的健康权利,然而由于经济发展和收入水平不同,偏远地区、农村的互联网都不畅通,健康信息系统建设不到位⑥,老年人往往无力购买智能可穿戴设备、智能护理机器人等健康管理机器,贫富差距引发的社会资源分配不公问题凸显。如何在研发和推广智能设备中充分考虑老年人的购买力,是关乎社会正义的伦理问题。

二、现实考察:人工智能时代老年健康管理的困境

(一)人工智能时代老年健康管理的经验

改革开放以来,尤其是进入21世纪之后,我国人工智能技术得到了巨大的发展。据中国电子信息产业发展研究院数据统计,2017年我国人工智能市场规模为216.9亿元,比2016年增长52.8%,增长速度快于全球平均水平,2020年有望超过700亿元①。其中,“人工智能+融合医疗、金融、教育和安防等领域企业”位居全球人工智能目标市场行业首位,总计占比40%。国家高度重视,企业与医疗机构积极探索老年健康产品的研发、推广与应用,先后积累了一些经验,取得了初步进展,为人工智能服务于老年健康管理奠定了重要基础。

首先,信息化与大数据推动智慧医疗的发展,为人工智能在老年健康管理中的应用提供了技术支撑。信息化与大数据是人工智能有效嵌入的基本要素,因此医疗信息化的实现和医疗大数据资源的壮大是推动人工智能在老年健康管理应用的重要基础。近几年来,高速、移动、安全的新一代信息基础设施建设加快,城市社区光纤网络覆盖率不断提升,中国互联网络信息中心(CNNIC)的《中国互联网络发展状况统计报告》显示互联网逐渐向高龄人群渗透,60岁以上老年人对互联网的接触率和应用率逐年上升。与此同时,健康养老服务信息平台建设不断推进,早在2011年,老龄办和民政部门就在全国范围内推进社区为老服务信息平台建设项目启动试点工作,试点项目50余个,据统计覆盖老年人口仅3000多万;2014年民政部和发改委确定在全国选取了42个地区推进养老服务业综合改革试点,改革的重点之一即是加快信息平台建设。2018年国务院《关于促进“互联网+医疗健康”发展的意见》,强调推进远程医疗覆盖全国所有医联体和县级医院,支持高速宽带网络覆盖城乡医疗机构,建立互联网专线保障远程医疗需要。“互联网+医疗服务”建设初具规模,各级医疗机构、养老服务机构积累了大量老年人有关的数据资源,其中包括老年信息数据库建设与大数据共享平台与服务平台建设,为下一步人工智能的嵌入奠定了坚实根基。

其次,国家高度重视,政策与法律建设不断推进,为人工智能在老年健康管理中的应用提供了制度基础。一方面,为推动人工智能的迅速发展,近年来我国人工智能领域指导性政策文件不断出台。如2017年7月国务院印发《新一代人工智能发展规划》,同年12月工信部公布《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,明确了我国新一代人工智能发展的战略目标,部署构筑我国人工智能发展的先发优势,加快创新型国家和世界科技强国建设。2018年1月中国电子技术标准化研究院《人工智能标准化白皮书(2018版)》,提出确立人工智能产业发展的标准体系;3月政府工作报告明确指出加强新一代人工智能在医疗、养老等多领域的应用。各省市积极响应,出台本地区的具体实施意见,为人工智能在老年健康领域的应用确立了方向。另一方面,为应对各类风险与危机,我国不断推出信息建设与信息安全的相关规定。据统计目前我国信息治理层面的相关法规已有100余件,涉及个人信息保护、网络侵权预防和网络犯罪惩治等多个领域②。具体到医疗行业,2013年国家卫生计生委、国家中医药管理局印发的《关于加快推进人口健康信息化建设的指导意见》,2015年国务院办公厅印发的《全国医疗卫生服务体系规划纲要(2015-2020年)》,2017年工信部、民政部、卫计委联合印发的《智慧健康养老产业发展行动计划(2017-2020年)》等文件,都着重强调形成覆盖全生命周期的智慧健康养老产业体系,打造一批智慧健康养老服务品牌。2016年12月,国务院办公厅印发《关于全面放开养老服务市场提升养老服务质量的若干意见》提出推进“互联网+”养老服务创新,到2020年养老服务市场全面放开等,都指出实现全员人口信息、电子健康档案和电子病历三大数据库要基本覆盖全国人口并完成信息动态更新。这些直接或间接性文件的不断完善,为人工智能在健康领域的应用提供了基本的制度框架。

最后,在技术与政策环境的激励下,人工智能在老年健康管理中的应用初见成效。从易得的传感器,到智能化的可穿戴设备,智能护理床、健康服务机器人、陪护机器人等服务机器人,越来越多智能设备参与到老年人健康管理领域。近几年,房地产商、保险公司、养老机构积极推出高端养老项目,健康服务机器人也随即而来,其中天津哈士奇机器人作为全球首台健康服务机器人成为标志性事件。而后,机器人也开始应用在福利中心和养老机构,仅杭州就有70家养老机构和40家照料中心引进了“阿铁”养老机器人①②,机器人具备健康检测、健康顾问、紧急报警与陪伴逗乐四项主要功能。同时依托“互联网+”搭起智能居家养老服务的桥梁,一是通过智能健康腕表随时测量血压、心率等生命体征数据。相关研究表明可穿戴智能设备在治疗慢性病方面有显著效果,治疗费用、住院时间等都有所降低③④。二是“开心”等智能健康养老机器人通过人体感应、摄像头远程监护、声源定位、语音识别等系统为居家老人提供安全监护、用药提醒、数据分析等健康服务,约87%的受访者表示类似于“开心”的智能健康养老机器人会对空巢老人有用⑤。三是通过“互联网+”和远程医疗、远程手术等满足老年人的医疗需求,通过机械骨骼、轮椅机器人等助力老人康复⑥。从监护到治疗,人工智能在各种养老模式的老年人中的初步试水,为应对人口老龄化提供了战略性思维。

(二)人工智能时代老年健康管理的难题

人工智能为老年人实现全过程健康管理提供了条件,推动了老年健康管理模式的突破与创新,然而目前人工智能在老年健康管理中的应用仅处于起步阶段,尚有很多问题需要解决。

其一,从应用范围来看,价格壁垒难以突破,老年健康管理中人工智能缺乏动力。医疗行业本身就极具复杂性和特殊性,医疗体制改革和医养结合养老模式发展已推行多年,但仍有很多问题为人们所诟病。人大代表罗卫红曾提出目前医养结合虽初具成效,但仍存在医养结合服务需求与承载力不对称、行业管理体制不完善、医养结合医保支付政策难以保障护理需求等问题。人工智能嵌入老年健康管理为医养结合模式的发展创造机遇的同时,也提出了更高的要求。人工智能设备造成的健康管理服务费用谁来支付、怎样支付,目前国内尚未达成共识,这也解释了为什么目前智能健康机器人多出现在养老机构,而非居家老人家中。不可否认,在当前医疗卫生服务供给不足的情况下,医养结合型养老机构非常重要,机器人的引入对老年人尤其是对高龄老人、半失能老人与失能老人带来了极大的便利。然而无论是9064模式还是9073模式,绝大多数老年人是居家养老。针对居家生活老年人的健康监测、预防、治疗、康复、护理和心理慰藉等服务需求亟需人工智能的嵌入,然而形势不容乐观,一方面是因为智能装备价格较高,老年人个体往往无意愿或无力购买较为昂贵的智能感应设备,另一方面是因为担心后续健康服务能否持续跟进,比如一个智能腕表就价值几千元,如果后期的服务没跟上,老年人损失就会很大。人工智能的应用必须考虑各方支付意愿,其价格在某种程度上决定了其可推广的范围。如何围绕大健康战略来定位发展人工智能,实现医疗健康服务利益相关者的协作,为老年人提供全方位全周期的健康服务是亟须解决的关键问题之一。

其二,从信息化建设来看,人工智能应用于老年健康管理的信息孤岛劣势明显。人工智能的应用离不开信息技术的支撑。推进医疗服务大数据建设,建设老年群体数据库与医疗服务信息平台,统一相关数据标准是基础。“人工智能+医疗”最大的问题在于数据的来源和质量,因为我国的医疗数据在医院与医院间、医院与家庭间存在信息孤岛,即使在同一个医院提取和利用数据仍涉及很多操作手续。与此同时,虽然各地政府一直在强调健康养老服务信息平台建设,但进程并不乐观,多数老年健康服务仅停留在通过社区门诊或体检获得数据,共享在街道一级,实现市级统一平台建设的省份屈指可数。除了技术条件的制约,更多的是缺乏全局的考虑与统筹规划,民政部门、统计部门、公安部门、卫生部门、医院等多部门之间的责任模糊,各涉老部门缺乏沟通与配合;各地区各自为政,缺乏共享理念和共享动力,有效的沟通不足,相互之间在操作系统、网络协议、语义表示、数据库类型,乃至硬件管理平台上存在差异,医疗信息数据不能有效实现地区共享,阻碍了人工智能赖以为生的数据信息资源的有效流通,既造成了数据信息资源重复建设,也限制了数据信息资源功能的最大发挥。可见,要想人工智能应用于老年健康管理,积极突破数据壁垒势在必行。

其三,从健康服务相关主体来看,养老机构、社区服务中心、医疗机构与企业的合作不足。养老服务机构、医疗机构等服务机构本身不生产人工智能设备,而是通过引进人工智能设备服务于老年人,科技企业才是人工智能产品的生产者。服务机构最了解老年健康管理全过程需要什么样的人工智能产品,而科技企业则在技术上独占优势。二者通过跨界合作发挥各自的优势,才能明确研发内容,最大程度缩短研发周期,以满足老年人健康管理的需要。然而目前国内各级医疗机构、养老服务机构在该领域的开拓相对滞后,除了发达城市的大型房地产公司通过与科技公司合作建设高端养老基地,应用人工智能参与老年健康管理服务,实现了企业间的人工智能合作外,多数医疗机构、养老服务机构有待进一步跟进。与此同时,医疗机构、养老服务机构提升自身对人工智能产品的驾驭能力也离不开同科技企业的有效合作。两者有效合作的缺乏在一定程度上制约了老年健康管理过程中的人工智能创新能力的提升。两者如何建立合作机制,共同推进人工智能的技术创新与应用是人们不得不思考的当务之急。

其四,从研发主体看,老年健康管理领域的人工智能发展受制于稀缺的专业人才。人工智能任何相关技术方面的突破都依赖于人才,可以说其发展能力取决于人才数量。《全球人工智能人才白皮书》显示全球AI领域的人才缺口达到百万量级,2017年工信部发言人指出在我国人工智能人才缺口超过500万,稀缺的专业人才资源是制约全球人工智能技术发展和应用落地的一大短板。人工智能的专业人才既要掌握数据挖掘、语音图像识别等计算机层面知识,又要了解人工智能应用领域的客观状况。AlphaGo之所以能战胜人类围棋世界冠军,在一定程度上是因为其设计者DemisHassabis本人就是天才棋手①。因此,人工智能老年健康领域的专业人才需要集计算机专业技术与健康养老服务行业实践于一身,才能研发出适合老年群体的智能健康医疗设备。目前国内的人工智能专业性人才缺乏,且多集中于制造业、互联网等领域的技术开发工作,虽然一些科技公司与医疗机构合作取得初步的成果,但在医疗领域结合上缺乏深度,直接针对健康服务领域的人工智能人才更是不足,阻碍了老年健康领域人工智能技术的推行。

三、未来选择:人工智能时代老年健康管理的关键路径

人工智能时代的到来,为老年健康管理创造了全新的环境,同时也对政府、社区、医疗机构、养老服务机构等提出了更高的要求。面对人工智能的迅速发展,需积极推进人工智能与老年健康管理的深度融合,以促进适应时代诉求的老年健康管理智能化。

(一)构建人工智能嵌入老年健康管理的管理机制

DouglassC.North指出制度是社会的游戏规则,规定了人与人之间的行为范式②。人工智能时代老年健康管理迫切需要现有机制的突破与创新,当前必须做好三个层面的具体工作。

一是形成专业的领导机制。人工智能科学嵌入老年健康管理离不开政府部门的统一规划和部署。2018年国家医疗保障局成立,整合了此前散落在人社、民政、卫计委、发改委等多个部门的相关医疗职能,改变了“九龙治水”的管理局面,为人工智能在医疗行业、健康领域的嵌入提供了契机。在老年健康领域推广人工智能应纳入医疗保障局的工作内容,积极推动医疗机构、养老机构、社区养老服务中心等与科技企业的合作,全方位部署人工智能在老年健康管理中的应用格局,从传感器,到智能化的可穿戴设备,健康服务机器人、智能护理床、陪护机器人等服务机器人,从智能家居设备、养老服务机构智能设备,到智能医疗机器,从老年人健康数据建设到疾病的预防、治疗、康复与护理等,培养一支兼具智能理念和实践经验的新型领导队伍,确保政府部门在人工智能应用中始终掌握主动权。

二是培养多元主体信息共享机制。人工智能的发展与应用依赖于数据,因此,人工智能嵌入老年健康管理,一方面需要挖掘分析大量老年健康数据,以便人工智能设备的研发,另一方面需要医疗机构、养老机构、社区居家服务中心、老年人等相互间的数据连通与安全共享,促使多方有效参与老年健康管理。加快健康养老信息平台建设迫在眉睫,要着力提升多元参与主体的数据素养和技术素养水平,促进多元主体相互间协同配合,协调老年健康数据在各部门间的流通,实现数据信息的交互及供需的有效匹配,从而打破数据壁垒,为提升老年健康管理水平提供数据支撑。

三是建构道德伦理矫正机制。享受人工智能给老年健康管理带来巨大便利的同时,也必须正视其对道德伦理的挑战。首先,进一步完善信息保护机制,减少甚至消除老年人对个人信息数据泄露的担忧。其次,科学认识和使用人工智能。虽然现有的人工智能在某些层面和维度接近、达到甚至超过了人类智能,但其工具性色彩没有改变,人工智能在老年健康管理中的应用旨在提高健康管理水平,而不是取代医护人员和亲朋好友。儿女的关心、好友的慰问以及老年人必要的社交互动都不可或缺。最后应通过技术发展,为人工智能注入情感,促使人机交互更加和谐。

(二)构建以人工智能为核心载体的老年健康技术系统

推进各级医疗机构和各地养老机构在老年健康管理中发挥更大的作用,需要通过智能化处理系统和便捷高效的急救处理流程,即系统能自动采集老年人身体状况数据并进行分析,当发生意外跌倒或生命体征数据出现异常,智能呼叫相应的医疗机构,使老人及时、准确地获取医疗服务。为此,应重点做好两个层面的工作。

一方面,建设针对老年健康管理的智能处理系统。智能化系统基于计算机网络技术和信息技术,强化老年健康的数据挖掘系统和数据存储系统建设,有效整合老年健康管理智能化进程中的各类非数值型、非结构化数据,同时有针对性地引进合适的人工智能技术,如生物识别技术、自然语言处理、机器学习、虚拟等,提升人机交互过程中老年健康数据的处理效率,并以此形成由知识库、数据库、推理机、解释器和知识获取等组成的老年健康管理系统,为提高老年健康管理水平奠定基础。

另一方面,创新以人工智能为基础的医疗流程。智能系统的生命在于应用,老年健康管理途径与方式的优化必须以智能处理流程的创新为依托。其一,通过人工智能实现老年人健康状况的自动检测,根据不间断、全方位的健康数据跟踪,智能评估老年人身体与心理的健康状况,并基于数据分析提出智慧决策,确定老年人在健康方面应采取的措施。其二,智能系统要在识别老年人紧急救助需求的基础上,主动通知医疗机构,使老年人及时得到救助。至于医疗机构的选择应符合分级诊疗原则与就近原则。这对于减少老年人独居风险,为空巢老人提供“健康保险”有积极的现实意义。

(三)构建“校—企—医/养”在人工智能领域的深度合作机制

学校是人才培养的重要阵地,科技企业是人工智能产业发展的主力军,而医疗服务机构与养老机构是老年健康管理的重要参与者。推进人工智能在老年健康管理领域的应用,迫切需要三者的深度协作,以达到通识成材、借势运力、以智发展的目标。

其一,探索高校与企业协同人才培养模式。相比美国人工智能人才数量,我国明显滞后。据领英数据显示,我国从业经验10年以上的AI人才占AI人才总数比例不足40%,而美国这一比例超过70%;美国人工智能基础层、技术层和应用层的人才数量占比分别为22.7%、37.4%和39.9%,而中国为3.3%、34.9%和61.8%,人才培养势在必行。如上文所述,人工智能的专业人才既要掌握数据挖掘、语音图像识别等计算机层面知识,又要了解人工智能应用领域的客观状况。科技企业需要高校的理论与人才的支持,而高校则可借助企业的数据资源和技术平台推进科研理论进展,将研究价值落地。因此,高校应加强人工智能相关学科建设,吸引国际顶级科学家和高层次人才,加强与科技企业、国外高校及相关机构的合作,将技术教学贯穿到实训项目中,让学生在校所学与企业实践有机结合,培养贯通人工智能基础理论、软硬件技术与医疗服务领域应用的纵向跨界人才。人工智能校企合作将有助于人工智能在老年健康领域的加速发展,为人工智能应用打开新局面。

其二,搭建医疗服务机构与企业合作平台。近年来,阿里巴巴、百度、腾讯和华为等国内企业在人工智能领域的崛起,为老年健康管理的转型提供了技术支撑。人工智能本身就涉及多重技术,不同行业或领域的关键技术必然存在差异,加快人工智能在老年健康管理中的应用,医疗服务机构既要借助科技企业的技术优势,引入智能技术,又要借助科技企业的智力优势,培育服务人才。这就要求医疗机构积极通过研发外包的途径,由科技企业打造契合老年健康管理需求的智能软件与硬件,加快老年健康管理智能产品的开发与推广,促进产品从监护提醒类、健康监测类,到医疗设备类、陪护聊天类,关注老年人身体健康的同时注意开发心理健康护理机器人,实现智能产品的多元化与精准化。与此同时,医疗机构通过与科技企业的合作,提高本机构内部人工智能的应用能力。

(四)构建老年健康管理人工智能产品的定价与补贴机制

人工智能在老年健康领域推行受阻的一个很重要的原因是企业囿于无利可图与老人抱怨收费高现象并存。老年健康领域人工智能产品与服务的价格既不能完全市场化也不能严控低价,应建立合理的定价机制与相应的财政保障机制,以平衡市场主体盈利与老年人经济承受力来促进人工智能在老年健康领域的广泛应用。

一方面,合理确定老年健康领域人工智能产品的价格。老年人的健康管理产品与服务具有一定的福利性,过高的价格会忽略老年人的经济承受能力,过低的价格又影响社会资本的收益率与参与积极性,阻碍该领域的进一步发展。根据资本资产定价模型,任何资产的期望收益率都由无风险利率和对所承担风险的补偿—风险溢价两部分构成,考虑到服务对象的特殊性,老年健康领域人工智能产品合理的投资收益率应等于或略低于市场平均投资收益率,兼顾经济效益与社会效益。

另一方面,建立相应的财政补贴机制。虽然老年人收入来源更加多元,自报需要照护服务的比例不断提高,越来越多的老年人有能力购买健康管理设备,但价格仍然是影响其选择与否的关键因素之一。而且受年龄、身体状况、收入等多重因素影响,有必要分地区、分群体进行大面积的调查统计,找到不同身体状况与经济状况的老年人有能力和意愿支付的平均价格。根据计算出来的市场价格与老年人可支付的价格,分类别分等级进行补贴,对于经济困难的失能半失能老人要免费配置相应的智能设备。

此外,加强老年健康管理人工智能应用状况的监管体系和绩效评价体系。当前人工智能技术整体还处在较低的发展层次,在认知能力、感知行为、风险对抗等诸多方面仍比较笨拙,应在加强人工智能嵌入的可能性风险管理的基础上,采取第三方评估方式,科学评价人工智能应用过程的技术适用、服务质量等环节。推进老年健康管理领域的人工智能应用的不断改进与发展。

篇5

算法是指由计算机执行的一系列独立的指令和动作。从初始状态和初始输入开始,这些指令描述了完整的计算步骤――通过一系列有限的、确切的指令,产生并输出答案和数据,最终止于结束状态。

人工智能的算法是一套利用机器智能解决问题的复杂手段。过去,我们给计算机下达规则式的指令来解决问题;现在,我们只要告诉计算机想解决的问题,它就可以自行选择算法来解决问题――这便是人工智能带来的根本性变革。

人工智能最重要的是学习能力,即根据机器以往的经验来不断优化算法。第一次人工智能的浪潮始于上世纪70年代,当时的人工智能算法采用的是符号逻辑推理规则,以实现知识表征。由于缺乏自我学习能力,那时的人工智能无法解决新领域中出现的问题。第二代人工智能虽然在学习和感知能力上表现更佳,但由于当时的机器学习模型不具备大量吸收训练数据的能力,与人类的水平仍有很大差距。

算法的发展

大约在10年前,深层与结构化机器学习,或称为深度学习的新范式,让人工智能算法的智能程度越来越高。传统的机器学习方法让电脑学习的“知识”,要由人来设计并输入,因为需要掌握大量的专业知识,导致特征工程成为机器学习的瓶颈。深度学习打破了这一瓶颈,通过多层结构算法,机器对数据集的“特征”进行筛选和提取,通过反复训练,最终获得了提取抽象概念的能力。

篇6

一、美丽的误解:算法默认是公平的

建立在算法模型基础上的人工智能给社会生活带来巨大便利,如网络约车、区块链、互联网金融等带来了社会进步,但其潜在的弊端不容忽视。2016年哈佛大学肯尼迪学院的分析报告指出,目前针对犯罪倾向性预测的人工智能系统,无论技术人员如何调整机器学习的策略和算法,人种和肤色都成为无法抹去的高优先识别变量。那么看似技术中立的算法为什么会产生歧视?

算法本质是互联网的编程技术,但这种编程技术绝非中立。谷歌公司的数码相册软件将深色皮肤的人标记为大猩猩,展示了科技错误如何转变成伤害,进而导致社会不安与仇恨。正如这里所示,算法歧视在很多情况下是难以预料的、无意识的副产品,而非编程人员有意识的选择,更增加了识别问题根源或者解决问题的难度。那么算法歧视是如何出现的?首先,算法结果建立在其所使用的基础数据之上,基础数据的不完善将直接影响算法输出的科学性。数据本应是社会现实的反映,但如果编程数据本身不正确、不完整或过时,输出的结果则会以偏概全。我国的裁判文书上网制度有待完善,各省关于类案类判制度的试点也还存在“数据孤岛”等“先天不足”,这不可避免地会损害算法输出结果的公平性。其次,算法的设计、目的、成功标准、数据使用体现了设计者、开发者的主观选择,他们可能将自己的偏见嵌入算法系统,这导致算法继承了人类决策者的种种偏见。第三,算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误输入形成的错误输出作为反馈,将进一步加深错误。第四,算法决策不仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。

二、算法歧视的治理难点

人工智能的算法决策具有典型的“黑箱”特点,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上非常困难。如果按照现有的法律责任规则,由于系统的自主学习、决策能力很强,它的开发者无法预测最终将输出什么结果,那么黑箱的存在难以查找事故原因,将不可避免地产生责任鸿沟。除了如何通过设计确保算法和人工智能系统的公平性外,算法的治理难点还有以下方面。

首先,法律工具主义思维盛行。工具主义是指将各种科技成果视为解决人类问题、增强人类能力的工具,其在法律领域是实用主义法律观的体现。电脑量刑、类案类判输出的结果之所以往往为民众质疑,是因为只讲手段不问目的的工具主义割裂了法律和道德的关系,导致输出结果无法取得社会认同。工具理性取代价值理性的弊端在现代化早期已经暴露无遗了,技术本身并不是目的,也无法自动形成自己的目的。

其次,算法的透明性问题难以公开。算法的输出是“黑箱”过程,即便人工智能最终的应用出现严重后果,算法的过程也无从得知。人们无法判断损害到底如何造成、更不清楚算法本身是如何编写的。对于掌握先进科技的企业而言,算法往往属于企业的“商业秘密”,是受到法律名正言顺保护的“黑箱”。当利用犯罪风险评估软件对犯罪嫌疑人进行评估时,决定司法判决结果的就不再是规则,而是代码。而编程人员将既定规则写进代码时,不可避免地会对这些规则进行调整,但公众、官员以及法官并不知晓,无从审查嵌入到自主决策系统中的规则的透明性、可责性以及准确性。在缺乏必要的问责机制的情况下,无法矫正的算法歧视对刑事司法是一种嘲讽。

第三,运用法律规制算法歧视在操作层面还需考虑以下方面:第一,公平可以量化、形式化吗?如何被翻译成操作性的算法?第二,公平被量化为计算问题会带来风险吗?第三,如果公平是机器学习和人工智能的目标,谁来决定公平的考量因素?第四,如何让算法、机器学习、人工智能具有公平理念,自主意识到数据挖掘和处理中的歧视问题?

三、通向公正的算法规制

篇7

互联网时代不但提供了各种迅速汇聚信息的搜索引擎,也为人与人之间的

沟通带来前人难以想象的便利,在中国更是兴起了以马云为成功典范、全民狂欢式的O2O(Online to Offline 线上线下模式)的电商经济。这是我们的时代,它造就了我们的生存方式。然而,对于互联网时代的批判与反思都尚且无法尘埃落定之际,阿尔法狗大败李世石的棋局也让全世界对人类未来有了更新的认知:无论我们是否已经做好准备(显然大多数人没有),人工智能所裹挟的未来似乎已经降临。

在西方文学史上,我们能清晰地触摸到技术的烙印:漫长的中世纪是19世纪浪漫主义者眼中的黄金时代,是他们的乡愁与乌托邦。尽管征战连连,普通民众的生存条件恶劣,但那毕竟是持续了千年的“稳定”状态。在这样的时代,生活的变革并不剧烈,一个人的世界就是父辈口中的那个世界,它不会在某一天变得全然陌生。这是工业时代(机械时代)对农耕时代的缅怀。而我们的时代给世界带来的“陌生化”,比起工业时代而言则有过之而无不及。技术的频繁更新(各种补丁、最新版本的下载通知)仅仅是其“变革”力量的冰山一角而已。一方面是刚刚用熟的工具,还没变得趁手,已然变幻了模样;另一方面,则是我们自身随之发生的改变。以博客―微博―微信朋友圈的更新为例:仅仅在十年之内,无论空间距离如何遥远,人们的即时交流已经如此方便,而人的表达方式也已经全然不同。这一点,从行文篇幅急剧缩短、配图的日益丰富都表露无遗。同样是互联网,为人的各种烦琐事务决策提供了充分的信息源,但是海德格尔有关人在技术时代被“预置”的担忧却成为事实:一位母亲在为自己的孩子挑选保姆之际,可能非常感谢家政公司的清晰网页与详尽资料,但是“保姆超市”这一称谓却很可能让她备感不适,同时让她真切体会到自己也不过是一堆“人力资源”资料中一纸信息而已。事实上,我们的父辈已经亲历了科技所能带来的巨大社会变革:网络和手机上网。很多老年人无法像年轻人一样熟练地操作电子产品,但是他们的生活由此所受到的冲击一点也不比年轻人少,而且这种冲击很可能是以负面影响居多。木心的《从前慢》一诗如果从这个方向来解读,就绝非是对前网络时代的浪漫主义抒怀,而是今天很多老年人心境的真实写照,他们在网络生活面前手足无措,并日益与年轻一代隔绝。他们用了将近一生的时间来熟悉、学习并参与其建造的那个世界消失了,或者忽然之间陌生了。

比起互联网时代,人工智能时代带给世界的变化会更加剧烈和难以想象。无论是否正视人工智能的发展前景及其对人类的影响,任何人类在技术上的重大突破,首先给予普通受众的就是心理上的强烈冲击,简言之,就是从对待天方夜谭式的不相信,到亲见亲历的难以相信和恐惧,然后再到习以为常。在交通工具的发明史上,是蒸汽火车与马车的竞赛,第一架飞机的试飞;在沟通交流的发明史上,是贝尔的电话;在毁灭性武器的发明史上,则是广岛的原子弹投放。强人工智能与超人工智能的出现所引发的心理地震,可能遵循的是同一条曲线。

虽然棋种不同,机器人战胜国手的新闻,二十年前早有报道。而阿尔法狗引发的大量讨论与关注,其焦点并非是它所代表的精于计算的弱人工智能(在某个特定领域远远超越人类但是能为人类所用),而是在它之后可能出现的强人工智能(机器在哲学的意义上变得和人一样:拥有自觉意识的机器)与超人工智能(人类无法想象之物,或人类全新的存在形式,比如人机一体)。它们不仅涉及非常棘手的人机之间的伦理问题,而且会带来一个人类进程上前所未有的悖论:我们像上帝一样创造了某物,但是它远远比我们强大,并可能在极短的时间内成为远远超乎我们的理解与想象的某物:“像神一样地永生还是像恐龙一样彻底毁灭。”这样的形而上命题在不久的将来很有可能成为现实;换言之,人类正在创造一个不可知的上帝。另外,如果人类可以造出和自己一样的、甚至迅速超越自己的机器,那么人类自身是否也是被造出的机器,人类文明的发展史,在这些发展史之中所结晶的人文主义者所珍视的一切,是否是某个被预置的实验结果?

根据强人工智能领域相关专家的保守估计,强人工智可能在2075年实现。这场变革很可能为我们以及我们的下一代所亲见与亲历。难怪跨学科的杰出人物弗诺・文奇(Vernor Vinge)说,“我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大。”当然,从另一个角度(技术的不可靠)而言,前文所提出的问题也会被非常干脆地一笔勾销:不需要等到超人工智能的出现,仅仅是忠实执行人类指令的弱人工智能就可能将人类消灭。我国翻译出版的第一部西方短篇科幻小说集《魔鬼三角与UFO》所选的《机器人“俾斯麦”》说的正是这样的故事:想要减肥的一家人,定制了一个机器人,想用它超强的执行力监督全家的减肥进程。故事的结尾不难想象,机器人为了彻底执行“减肥”这一任务,在房屋周围布置了电网,一家人谁也出不去,最终因反抗机器人的专制而死于非命。

英国系列短剧《黑镜》(The Black Mirror)是当代反乌托邦的代表之作,其中讨论人工智能的单元非常有趣。科技问题是这部在豆瓣上评价甚高的系列剧关注的主题之一。不仅是网络时代的诸种面相在《黑镜》系列中得到了戏剧性的展示,比如偷窥、“屏蔽”等等;人工智能在人类生活中可能存在的形式、对人类生活可能造成的影响也在该剧中得到极富戏剧形式的展现。它们大致可归纳为三个主题,分别与第一季第三集(《关于你的一切》)、第二季第一集(《马上回来》)和第二季圣诞特别篇《白色圣诞》相对应。尽管第一季第二集(《1500万的价值》)是以一个虚拟未来为故事背景的,但是在科幻外壳之下,它的主题仍然是商业利益对于个人自由的收买,并从另一个角度提示了资本与技术结合的巨大能量。在下文讨论的三个剧集中,编剧对科技所持的批判与悲观立场固然一览无余,但仅仅停留在这种悲观立场的解读显然是不充分的;由这些剧集所提出和所形成的一些有关科技的“文学”(影视)叙事模式,以及它们所引发的一些问题仍然值得更一步的讨论。

意识复制:金属容器里的人类意识副本

《白色圣诞》的叙事采用了俄罗斯套娃的模式,包含了好几个故事,其中讨论的人工智能是这部系列剧中最令人感到恐怖的。虽然这种技术有几种实施方式,但其核心就是意识与身体的分离――意识的复制。当然,剧中也涉及智能眼这种与记忆粒类似的植入人体的人工智能,因前文已做讨论,这里不再赘述。人的意识可以被复制,而且在未来这只不过是一个小手术而已。在该剧的第二个故事中,一位女子就做了这个手术。复制的意识被安置在一个蛋形金属容器内,在专业人员的“调教”下,“它”明白了自己的使命:为“自己”服务!或者说,为那个被复制的意识与身体服务!这真是关于人的“自我奴役”的最佳隐喻与讽刺了。而且,这种意识复制也给哲学家制造了很大的难题。人是因为其精神力量被称之为人的。而被复制的意识在人的伦理学中应该占据一种什么样的位置呢?人可以毫无顾虑地让自己的意识为自己服务吗?或者使其成为最完美的奴役?因为这个被复制的意识是最了解它曾经所属的身体所需的。

最后的那个故事,则是专业人员如何诱使一个杀人犯承认自己的罪行。杀人犯的意识被复制出来,同样盛放在蛋形金属容器里面。专业技术人员为被复制的意识虚拟了一个场景,就是案发现场的木屋,并且虚拟了时间,他自己的意识也进入其中,以讲故事的友好姿态获得杀人犯(意识)的信任,对方投桃报李,将罪行的前因后果全都和盘托出。审问金属容器中的意识副本,远比审问现实中的罪犯本人来得容易,对一个罪犯的囚禁与惩罚,也可以通过扭曲他的意识副本的时间和空间而实现。显然,剧中已经将人自身与其意识副本等同,否则意识副本的忏悔,是无法用来给罪犯本人定罪的。

如果说前面两个故事的人工智能,还让人保有人的身体,那么《白色圣诞》中的人工智能就走得太远,直接将人的意识从它所属的身体中复制剥离开。剧中这种技术的实施指向两个目的:一是为“自己”服务;二是实现法制正义,让罪犯伏法。考量其中的伦理意义,上文所提到的问题就会一再浮现:人是否有权让自己的意识成为这样的一种奴役?人是否有权对他人的意识做这样一种处置,即使是一个罪犯的意识?显然,做手术的女子在得到自我意识的服务时极为享受;但是这份被复制的意识,最初是极其抗拒被困在金属容器中的安排的。

抛开剧中所涉及的伦理问题不谈,仅仅着眼于这种技术本身,也足以让人隐隐生畏。既然意识能够从身体中被复制或剥离,那么人也同样可以为自我意识找到新的身体――像仿真机器人那样的身体,或者干脆就是金属机器的身体。乍听起来,这是天方夜谭,但是在现实生活中,已经有人在做将自我意识上传到电脑,以到达“永生”的实验了。人的脆弱,人的局限很多时候都体现在肉体上。病痛,衰老对每一个人而言都是不可逃脱的命运,肉体的衰亡也必定导致意识的消失。如果意识脱离身体这种人工智能成为现实,人的存在方式就有可能发生根本性的转折。人与机器之间的界限将变得越来越模糊。为了抛弃人的脆弱与局限性,人有可能将自身改造为机器的那种样式。到那个时候,恐怕所有的文学都不再具有阅读的价值,因为文学中所描述的,正是肉身与精神兼具的人,是必然从年轻走向衰老的鲜活的身体。

篇8

新事物的发展会对社会原有规范产生冲击,因此社会规范需要不断调整来应对这些问题。人工智能的出现对传统社会规范特别是刑法犯罪主体认定、罪名设置等提出了深刻地挑战。[1]面对这些刑法应该如何应对值得我们深入思考。

一、人工智能对刑法传统制度的冲击

人工智能大致可分为弱人工智能、强人工智能和超人工智能阶段。超人工智能在当下来看太过科幻化,我们暂且不在本文中讨论。弱人工智能具有超强的运算和学习能力,但只能在人类设定的算法程序下实施着特定动作;而强人工智能除了具备弱人工智能的优点外还可能像人类一样拥有自主意识。

(一)弱人工智能对刑法的影响

1.弱人工智能对犯罪主体认定的冲击。无人驾驶汽车造成的交通案件是人工智能对犯罪主体认定提出挑战的典型代表。无人驾驶技术参与的交通肇事与一般交通肇事在本质上是一样的,唯一的争论焦点就在于人工智能可否成为交通事故的责任者。在现行刑法领域内,犯罪都是“人”在实施的,这里的“人”指的是自然人和法人,从目前的刑法条文来看人工智能不是犯罪构成要件中的“人”。[2]无人驾驶汽车可以完全由人工智能来操作,那么在“人”退居幕后的情况下交通肇事的行为是由谁实施的呢?刑法学上刑事主体的归责原则是“无行为无犯罪”,如今人工智能仍只是被视为高科技产品,违反交通法规并不是它的“本意”。既然其没有支配行为的意志,将其认定为犯罪主体在目前来看是不合适的。

2.弱人工智能对罪名设置的影响。弱人工智能在现阶段仍被视为工具,它在特定程序的控制下“听命”于人类,这使其很容易被不怀好意之徒利用而成为“得力”的犯罪工具,但是由于人工智能的类人化特点使其与传统的犯罪工具相比大相径庭,例如有人利用人工智能进行在现阶段应该如何定罪呢?我们发现现行刑法并没有针对这种行为的罪名设置,根据罪刑法定原则无法对其定罪。

(二)强人工智能对刑法的影响

1.人工智能对主体责任判断的冲击。强人工智能可能像人类一样拥有自主意识而被赋予主体资格独立承担刑事责任,而刑事责任的承担需要分析积极因素和消极因素两个方面,积极因素包括罪过(故意、过失)、目的等,消极因素包括责任阻却事由等,所以说刑事责任的判断是需要分析主体的主观意识的。而主观意识往往是不可观的,在传统犯罪中我们可以通过客观行为判断出主体的主观意识;而强人工智能体的算法逻辑和人类的思维逻辑可能是完全不同的,也就是说我们无法通过客观行为来判断它的主观意识,那么在这种情况下我们该如何判断人工智能的主观意识呢?

2.人工智能对刑罚制度的影响。人工智能从本质上来讲是由特定程序控制的计算机。鉴于人工智能心智和形体可分离的特殊性,一旦被赋予刑事主体资格,在人工智能触犯刑法时要规制的是控制它行为的特定程序,而不是该程序的外在载体即计算机。因此我们对人工智能适用刑罚时,重点是如何限制其程序的自由或者剥夺其程序的生命等。简单的切断电源、断开网络或者单纯地限制人工智能形体的自由,并不能达到规制人工智能的目的,因为人工智能的程序是由预先输入的命令语句所决定的,以上措施可使人工智能体暂时无法工作但是其内在特定程序并未改变,在接通电源和网络或者解除对其自由地限制后很难保证其不会犯同样的罪行。

二、人工智能时代刑法的制度重构

(一)刑法对弱人工智能阶段所产生问题的回应

1.刑法关于弱人工智能对犯罪主体认定带来的冲击的回应

以无人驾驶汽车造成的交通肇事案件为例,按照“无行为无犯罪”的传统刑法规则原则来看,似乎传统意义上的肇事者已经“难觅踪迹”了。[3]笔者认为,可以从如下方面来应对人工智能对犯罪主体认定带来的冲击:

(1)以交通肇事罪追究无人驾驶汽车使用者的责任。在无人驾驶汽车的行驶中,虽然无人驾驶汽车主要靠车内智能驾驶仪来实现车辆的行驶,但这并不是说免除了使用者的一切注意义务,特别是车辆在情况复杂的道路上行驶时,使用者更要尽到注意义务,若是由于使用者未尽到注意义务造成重大交通事故,则可以交通肇事罪追究无人驾驶汽车使用者的责任。

(2)以产品犯罪追究无人驾駛汽车生产者和销售者的责任。在现阶段无人驾驶汽车仍被当做产品来看待,那么无人驾驶汽车的生产者和销售者就要为此承担一定程度的产品质量保证责任,如果不是由于现有技术瓶颈,而是无人驾驶汽车存在质量问题导致重大交通事故的发生,则可以生产销售伪劣产品罪等产品犯罪来追究生产者和销售者的责任。[4]

(3)由社会保险来承担责任。如果说该事故是由于当下技术瓶颈等非人为因素造成的,是社会发展所带来的风险。[5]那么此时可以选择由社会保险来承担这份责任。

2.刑法关于弱人工智能对罪名设置影响的回应。针对可能有人利用人工智能犯罪而法无明文规定的情况,在罪名设置方面有增设新的罪名或者对传统刑法罪名进行修正两种方案。增设新的罪名如“滥用人工智能罪”等口袋罪名,在人工智能的外延尚未彻底界定清楚的情况下贸然增设口袋罪会显得过于宽泛而无法准确定罪量刑。鉴于此笔者认为可以对传统刑法罪名作出针对性修改使其可以囊括该种类型的犯罪行为,这样就可以达到制裁此类犯罪维护社会秩序的目的。

(二)刑法对强人工智能阶段所产生问题的回应

1.强人工智能阶段刑法对人工智能主体责任判断的回应。上文中我们提到由于人工智能的特殊性我们可能无法通过传统方式分析出它的主观意识。[6]对于此笔者认为,既然人工智能是由算法程序控制的,我们不妨通过探究算法逻辑并摸索出算法程序的特点,进而通过分析人工智能的算法程序来判断它的主观意识,最终得出其应当承担的刑事责任。

2.强人工智能阶段刑法对人工智能刑罚制度的回应。由于人工智能体的特殊性,现行刑罚制度无法对其直接适用,因此我们需要创造出针对人工智能程序的特有刑罚。比如我们可以考虑通过更高级别的命令语句修改或者重新编写其程序,以此降低或者终止它的学习和运算能力,这样就可以达到规制人工智能程序的目的。

结语

人工智能已全面参与到我们的生产生活之中,并对我们的现行社会规范产生了深刻的影响,刑法作为人类社会稳定的重要调节器受到了人工智能的多方面挑战。因此刑法需要做出针对性的改变,尽量减少人工智能对人类社会造成的消极影响并让其更好的服务于人类的当下与未来。

参考文献 

[1] 王军:《人工智能的伦理问题:挑战与应对》,载《伦理学研究》2018年第4期。 

[2] 何丽:《基于人工智能视域下的法律主体研究》,载《政法学刊》2018年第3期。 

[3] 谭钊:《浅谈无人驾驶汽车的前景和面临的挑战》,载《东方法学》2017年第8期。 

[4] 林伟杰:《产品质量法释义》,中国民艺出版社2006年4月版。 

篇9

一、人工智能技术的定义及其技术特点

(1)人工智能技术是指通过计算机的算法对人脑控制人类的活动进行技术模拟,发出与人类行为相似的系统指令,从而能够解决传统学科难以解决的问题。人工智能技术作为一门新兴的学科,不仅包含数学、计算机学等传统学科,也包括了哲学、心理学、伦理学等学科。因此,人工智能技术可以说是全面地模拟人脑,以期达到人脑控制下的行为反应,最终达到单纯依靠机械来完成高危险、复杂的工作。(2)人工智能最大的技术特点即为可以利用计算机模拟运算来达到人脑思考的效果。与人脑思考相比,人工智能技术能够更有效地进行信息的采集、问题的分析与处理,在这种优势的促进下,复杂的脑力活动将逐渐被计算机的智能运算所代替。通过这种方式,可以极大的减少人力劳动与人力成本的资源投入,同时提高工作效率,实现产业结构的优化配置,最终提高生产力的发展水平。

二、人工智能在电气自动化控制中的应用

如何保证电气设备有条不紊地运转一直是电气自动化领域中亟须解决的问题,然而这个问题本身具有极大的复杂性,电气自动化控制领域中的人才培养十分不宜且后备力量严重不足。而人工智能技术的出现则有效的缓解了人才缺乏的压力,通过计算机的智能运算,可以有效的代替人脑对电气产品进行设计,而且当电气自动化工作过程中出现问题时,计算机也会及时做出反应。在电气自动化控制领域中实施人工智能技术,可以有效的降低生产成本,实现电气系统控制下生产结构的优化。(1)电气类产品设计时,人工智能可以对产品设计进行优化。由于传统的设计方式在前期会有一个漫长的产品试验过程,需通过归纳法得到相关设计经验后再由产品设计师进行手工完成,而这一过程很难达到产品预期的效果,且前期的试验与后期的制作方式都需要投入大量的人力物力与财力,所以,这样的生产方式显然不适用于当今社会科技快速发展的需要。人工智能技术的加入极大的改善了这种情况,优化了产品的设计过程。首先,CAD等电脑设计系统软件的出现,辅助人们进行前期产品的试验,由于计算机相比于人脑具有准确率高、运算快速等特点,因此这一前期的试验周期得到了极大的缩短。(2)面对电气自动化控制过程中出现的故障与事故,人工智能技术可以及时预防与解决问题。人工智能技术的出现与发展则有效地改善了这种情况,特别是处理在变压器、发动机等问题上,人工智能技术的表现尤为突出。例如,如果变压器工作不畅,出现故障时,早期的解决方法一般是先对变压器产生的气体进行收集、提取,然后分析得到的气体,最后根据分析得出的结论来判断故障出现的原因。这种方法不仅耗费大量人力与财力,最重要的是分析问题的周期相当长,此外,这种解决方法并不能保持一个较高的准确率,一旦出现不到位的诊断,后果不堪设想。人工智能技术则不会出现这种问题,计算机会根据专家的技术指导与平常机器故障的样本收集,对所产生的问题进行及时有效的分析,最终生成解决方案,不仅可以提高分析问题的准确率,也可以缩短分析问题的周期,全面的提高处理问题的效率。(3)人工智能技术可以简化电气自动化的控制流程。电气自动化领域的操作流程非常的繁琐,对于操作的步骤要求也非常严格,一旦出现细微的操作问题,则可能引起严重的机器故障发生,并造成无法估量的损失。如何保证电气设备能够有效稳定的运作,并在控制过程中尽量实现操作的简单化、程序化是每个研究人员关心的难题。人工智能技术的出现与发展有效的解决了这个难题,通过对日常资料的储存与分析,可以在机器发生事故时采取有效及时的措施,最大程度上保证社会的和谐发展。此外,人工智能技术通过对电气设备的远端操控,实现了控制流程的简单化、程序化,方便技术人员对电气设备进行定期的检查与维修,节约时间的同时,也降低运行成本。

三、总结

计算机技术的发展促进了人工智能技术的不断创新与发展,这项技术已经在社会各个领域中起到了极大的作用,方便了人们的生活,并不断促进社会进步。电气自动化控制行业与居民的安定生活、社会的和谐发展息息相关,因此更应大力发展人工智能技术。本文主要阐述了人工智能技术的定义特点以及在电气自动化控制中的具体应用,希望能为我国的电气设备的发展上提供帮助。

参 考 文 献

篇10

提到机器人法则,你第一时间想到的,可能是科幻作家阿西莫夫在短篇小说集《我,机器人》中描述的机器人三定律:一,机器人不得伤害人类,或袖手旁观坐视人类受到伤害;二,除非违背第一法则,否则机器人必须服从人类的命令;三,除非违背第一、二法则,否则机器人必须保护自己。

阿西莫夫的机器人三定律就因其高度的概括性和严密的逻辑而为人称道,被许多科幻作品引用并发扬光大。连现代人工智能的研究亦多考虑此法则,甚至将其应用在实际开发中。但阿西莫夫设计法则的本意并非要证明其完美无缺,恰恰相反,他在小说中不断探讨上述法则的局限性,引导读者思考这样的问题:机器人与人类到底应当以怎样的方式共处?机器人是否可能拥有灵魂,而不只是徒具人类外形的机器?如果一个机器人有了灵魂,那么它是否仍应服从这些法则?

在《机器纪元》中所设置的二法则,隐含了与阿西莫夫的机器人三定律完全不同的意味。机器人三定律并未限制机器人的自我完善和自我发展,而是明确规定了机器人对人类的从属地位。《机器纪元》的二法则别出心裁:一方面,没有要求机器人必须完全服从人类;另一方面,不能伤害的对象并未指定人类,而是要求不得伤害任何生命。一个具有了自己的意志和灵魂的机器人是不是生命?如果必须在伤害人类和伤害这样的机器人之间做选择的话,应当如何选择?

电影中的人类采用了简单粗暴的办法:限制机器人的应用、限制机器人的自我发展,不让机器人去考虑人与机器人孰轻孰重,更不让机器人有机会发展出自己的意志与灵魂。

False Tale

无所适从的定义

其实,无论阿西莫夫的机器人三定律,还是《机器纪元》的二法则,都有一个很明显的问题:以不得伤害人类为例,这条法则没有定义清楚什么是伤害,怎样的程度是伤害,怎样就不是。可能一些人觉得在机器人的监督下锻炼身体有益身心健康,而另一些人却会觉得每天被机器人逼着跑步让人身心俱疲。那么机器人该怎么做?是听任主人疏于锻炼,身体受损,还是逼迫主人运动?

其次,这些法则也没有定义清楚,如果机器人陷入了不得不伤害人类的情况时,应当如何判断。例如,假设未来机器人替代人类成为汽车司机,当机器人司机在驾车时,发现有人冲上了马路,刹车已经来不及了,不改变方向会撞伤他,而改变方向会导致车辆撞上障碍物伤害乘车者,那么机器人应该如何反应?

这就是机器人三定律及其他类似法则所碰到的问题。人类的道德、伦理、社会习惯、心理差异,很难用简单的语言概括成型,就连人类自己都为此伤透脑筋,更何况只能遵循逻辑来判断的机器人呢?

蹒跚学步的伦理

篇11

人工智能时代,网络空间安全威胁全面泛化,如何利用人工智能思想和技术应对各类安全威胁,是国内外产业界共同努力的方向。本报告从风险演进和技术逻辑的角度,将网络空间安全分为网络系统安全、网络内容安全和物理网络系统安全三大领域;在此基础上,本报告借鉴 Gartner 公司的 ASA 自适应安全架构模型,从预测、防御、检测、响应四个维度,提出人工智能技术在网络空间安全领域的具体应用模式。与此同时,本报告结合国内外企业最佳实践,详细阐释人工智能赋能网络空间安全(AI+安全)的最新进展。最后,本报告提出,人工智能安全将成为人工智能产业发展最大蓝海,人工智能的本体安全决定安全应用的发展进程,「人工+「智能将长期主导安全实践,人工智能技术路线丰富将改善安全困境,网络空间安全将驱动人工智能国际合作。

目 录

第一章 人工智能技术的发展沿革

(一) 人工智能技术的关键阶段

(二) 人工智能技术的驱动因素

(三) 人工智能技术的典型代表

(四) 人工智能技术的广泛应用

第二章 网络空间安全的内涵与态势

(一) 网络空间安全的内涵

(二) 人工智能时代网络空间安全发展态势

1、网络空间安全威胁趋向智能2、网络空间安全边界开放扩张3、网络空间安全人力面临不足4、网络空间安全防御趋向主动

第三章 人工智能在网络空间安全领域的应用模式

(一) AI+安全的应用优势

(二) AI+安全的产业格局

(三) AI+安全的实现模式

1、人工智能应用于网络系统安全2、人工智能应用于网络内容安全3、人工智能应用于物理网络系统安全

第四章 人工智能在网络空间安全领域的应用案例

网络系统安全篇

(一)病毒及恶意代码检测与防御

(二)网络入侵检测与防御

第三章 人工智能在网络空间安全领域的应用模式

人工智能技术日趋成熟,人工智能在网络空间安全领域的应用(简称 AI+安全)不仅能够全面提高网络空间各类威胁的响应和应对速度,而且能够全面提高风险防范的预见性和准确性。因此,人工智能技术已经被全面应用于网络空间安全领域,在应对智能时代人类各类安全难题中发挥着巨大潜力。

(一)AI+安全的应用优势

人们应对和解决安全威胁,从感知和意识到不安全的状态开始,通过经验知识加以分析,针对威胁形态做出决策,选择最优的行动脱离不安全状态。类人的人工智能,正是令机器学会从认识物理世界到自主决策的过程,其内在逻辑是通过数据输入理解世界,或通过传感器感知环境,然后运用模式识别实现数据的分类、聚类、回归等分析,并据此做出最优的决策推荐。

当人工智能运用到安全领域,机器自动化和机器学习技术能有效且高效地帮助人类预测、感知和识别安全风险,快速检测定位危险来源,分析安全问题产生的原因和危害方式,综合智慧大脑的知识库判断并选择最优策略,采取缓解措施或抵抗威胁,甚至提供进一步缓解和修复的建议。这个过程不仅将人们从繁重、耗时、复杂的任务中解放出来,且面对不断变化的风险环境、异常的攻击威胁形态比人更快、更准确,综合分析的灵活性和效率也更高。

因此,人工智能的「思考和行动逻辑与安全防护的逻辑从本质上是自洽的,网络空间安全天然是人工智能技术大显身手的领域。

(1)基于大数据分析的高效威胁识别:大数据为机器学习和深度学习算法提供源源动能,使人工智能保持良好的自我学习能力,升级的安全分析引擎,具有动态适应各种不确定环境的能力,有助于更好地针对大量模糊、非线性、异构数据做出因地制宜的聚合、分类、序列化等分析处理,甚至实现了对行为及动因的分析,大幅提升检测、识别已知和未知网络空间安全威胁的效率,升级精准度和自动化程度。

(2)基于深度学习的精准关联分析:人工智能的深度学习算法在发掘海量数据中的复杂关联方面表现突出,擅长综合定量分析相关安全性,有助于全面感知内外部安全威胁。人工智能技术对各种网络安全要素和百千级维度的安全风险数据进行归并融合、关联分析,再经过深度学习的综合理解、评估后对安全威胁的发展趋势做出预测,还能够自主设立安全基线达到精细度量网络安全性的效果,从而构建立体、动态、精准和自适应的网络安全威胁态势感知体系。

(3)基于自主优化的快速应急响应:人工智能展现出强大的学习、思考和进化能力,能够从容应对未知、变化、激增的攻击行为,并结合当前威胁情报和现有安全策略形成适应性极高的安全智慧,主动快速选择调整安全防护策略,并付诸实施,最终帮助构建全面感知、适应协同、智能防护、优化演进的主动安全防御体系。

(4)基于进化赋能的良善广域治理:随着网络空间内涵外延的不断扩展,人类面临的安全威胁无论从数量、来源、形态、程度和修复性上都在超出原本行之有效的分工和应对能力,有可能处于失控边缘,人工智能对人的最高智慧的极限探索,也将拓展网络治理的理念和方式,实现安全治理的突破性创新。人工智能不仅能解决当下的安全难题,而通过在安全场景的深化应用和检验,发现人工智能的缺陷和不足,为下一阶段的人工智能发展和应用奠定基础,指明方向,推动人工智能技术的持续变革及其更广域的赋能。

(二)AI+安全的产业格局

人工智能以其独特的优势正在各类安全场景中形成多种多样的解决方案。从可观察的市场指标来看,近几年来人工智能安全市场迅速成长, 公司在 2018 年的研究表明,在网络安全中人工智能应用场景增多,同时地域覆盖范围扩大,将进一步扩大技术在安全领域的应用,因此人工智能技术在安全市场内将快速发展,预计到 2024 年,可用在安全中的人工智能技术市场规模将超过 350 亿美元,在 2017-2024 年之间年复合增长率(CAGR)可达 31%。

MarketsandMarkets 公司在 2018 年 1 月的《安全市场中人工智能》报告则认为,2016 年 AI 安全市场规模就已达 29.9 亿美元、2017 年更是达到 39.2 亿美元,预测在 2025 年将达到 348.1 亿美元,年复合增长率为 31.38%。而爱尔兰的 Research and Markets 公司在 2018 年 4 月份了专门的市场研究报告,认为到 2023 年人工智能在安全领域应用的市场规模将达 182 亿美元,年复合增长率为 34.5%。由于机器学习对付网络犯罪较为有效,因此机器学习作为单一技术将占领最大的一块市场,到 2023 年其市场规模预计可达 60 亿美元。

除了传统安全公司致力于人工智能安全,大型互联网企业也在积极开展人工智能安全实践,如 Google、Facebook、Amazon、腾讯、阿里巴巴等均在围绕自身业务积极布局人工智能安全应用。

(三)AI+安全的实现模式

人工智能是以计算机科学为基础的综合交叉学科,涉及技术领域众多、应用范畴广泛,其知识、技术体系实际与整个科学体系的演化和发展密切相关。因此,如何根据各类场景安全需求的变化,进行 AI 技术的系统化配置尤为关键。

本报告采用 Gartner 公司 2014 年提出的自适应安全架构(ASA,Adaptive SecurityArchitecture)来分析安全场景中人工智能技术的应用需求,此架构重在持续监控和行为分析,统合安全中预测、防御、检测、响应四层面,直观的采用四象限图来进行安全建模。其中「预测指检测安全威胁行动的能力;「防御表示现有预防攻击的产品和流程;「检测用以发现、监测、确认及遏制攻击行为的手段;「响应用来描述调查、修复问题的能力。

本报告将 AI+安全的实现模式按照阶段进行分类和总结,识别各领域的外在和潜在的安全需求,采用 ASA 分析应用场景的安全需求及技术要求,结合算法和模型的多维度分析, 寻找 AI+安全实现模式与适应条件,揭示技术如何响应和满足安全需求,促进业务系统实现持续的自我进化、自我调整,最终动态适应网络空间不断变化的各类安全威胁。

1、人工智能应用于网络系统安全

人工智能技术较早应用于网络系统安全领域,从机器学习、专家系统以及过程自动化等到如今的深度学习,越来越多的人工智能技术被证实能有效增强网络系统安全防御:

机器学习 (ML, Machine Learning):在安全中使用机器学习技术可增强系统的预测能力,动态防御攻击,提升安全事件响应能力。专家系统(ES, Expert System):可用于安全事件发生时为人提供决策辅助或部分自主决策。过程自动化 (AT, Automation ):在安全领域中应用较为普遍,代替或协助人类进行检测或修复,尤其是安全事件的审计、取证,有不可替代的作用。深度学习(DL, Deep Learning):在安全领域中应用非常广泛,如探测与防御、威胁情报感知,结合其他技术的发展取得极高的成就。

如图 3 所示,通过分析人工智能技术应用于网络系统安全,在四个层面均可有效提升安全效能:

预测:基于无监督学习、可持续训练的机器学习技术,可以提前研判网络威胁,用专家系统、机器学习和过程自动化技术来进行风险评估并建立安全基线,可以让系统固若金汤。

防御:发现系统潜在风险或漏洞后,可采用过程自动化技术进行加固。安全事件发生时,机器学习还能通过模拟来诱导攻击者,保护更有价值的数字资产,避免系统遭受攻击。

检测:组合机器学习、专家系统等工具连续监控流量,可以识别攻击模式,实现实时、无人参与的网络分析,洞察系统的安全态势,动态灵活调整系统安全策略,让系统适应不断变化的安全环境。

响应:系统可及时将威胁分析和分类,实现自动或有人介入响应,为后续恢复正常并审计事件提供帮助和指引。

因此人工智能技术应用于网络系统安全,正在改变当前安全态势,可让系统弹性应对日益细化的网络攻击。在安全领域使用人工智能技术也会带来一些新问题,不仅有人工智能技术用于网络攻击等伴生问题,还有如隐私保护等道德伦理问题,因此还需要多种措施保证其合理应用。总而言之,利用机器的智慧和力量来支持和保障网络系统安全行之有效。

2、人工智能应用于网络内容安全

人工智能技术可被应用于网络内容安全领域,参与网络文本内容检测与分类、视频和图片内容识别、语音内容检测等事务,切实高效地协助人类进行内容分类和管理。面对包括视频、图片、文字等实时海量的信息内容,人工方式开展网络内容治理已经捉襟见肘,人工智能技术在网络内容治理层面已然不可替代。

在网络内容安全领域所应用的人工智能技术如下:

自然语言处理(NLP, Natural Language Processing):可用于理解文字、语音等人类创造的内容,在内容安全领域不可或缺。图像处理(IP, Image Processing):对图像进行分析,进行内容的识别和分类,在内容安全中常用于不良信息处理。视频分析技术 (VA, Video Analysis):对目标行为的视频进行分析,识别出视频中活动的目标及相应的内涵,用于不良信息识别。

如图 4 所示,通过分析人工智能技术应用于网络内容安全,在四个层面均可有效提升安全效能:

预防阶段:内容安全最重要的是合规性,由于各领域的监管法律/政策的侧重点不同而有所区别且动态变化。在预防阶段,可使用深度学习和自然语言处理进行相关法律法规条文的理解和解读,并设定内容安全基线,再由深度学习工具进行场景预测和风险评估,并及时将结果向网络内容管理人员报告。

防御阶段:应用深度学习等工具可完善系统,防范潜在安全事件的发生。

检测阶段:自然语言、图像、视频分析等智能工具能快速识别内容,动态比对安全基线,及时将分析结果交付给人类伙伴进行后续处置,除此之外,基于内容分析的情感人工智能也已逐步应用于舆情预警,取得不俗成果。

响应阶段:在后续调查或留存审计资料阶段,过程自动化同样不可或缺。

3、人工智能应用于物理网络系统安全

随着物联网、工业互联网、5G 等技术的成熟,网络空间发生深刻变化,人、物、物理空间通过各类系统实现无缝连接,由于涉及的领域众多同时接入的设备数量巨大,传感器网络所产生的数据可能是高频低密度数据,人工已经难以应对,采用人工智能势在必行。但由于应用场景极为复杂多样,可供应用的人工智能技术将更加广泛,并会驱动人工智能技术自身新发展。