论文部分内容阅读
自2010年前后兴起的新一轮人工智能热潮,以互联网大数据、强大的计算硬件设施和人工智能算法为关键性的发展要素。本文关注人工智能算法在普及应用中带来的问题。算法具有通过自动化决策和解释大数据而影响生产生活以及社会系统的强大能力,这与其缺少透明度、弱于监管的现状形成了鲜明对比。今天,越来越多的经济社会决策正在由人让渡给算法,而算法的实际运行规则对于大部分人来说是不可见的。针对这一实践问题,本文用算法“黑箱”的概念,来描述日趋深入社会生产生活各领域的算法不透明现象,文中认为,应对人工智能算法技术发展所带来的各种风险问题,需要打开算法开发与应用过程中的“黑箱”,推动算法开发与运营企业负责任的决策与行为,引入利益相关者的广泛参与,促进企业履行算法责任的行为。这是当前算法技术加速普及应用的时代背景下,具有非常重要现实意义的一个研究方向。针对算法“黑箱”和算法责任问题,本文涉及到的主要研究内容如下:1.界定并明确了不同类别的算法“黑箱”。算法“黑箱”体现在三个彼此相关的层面:一是深度学习等算法本身存在的不可控的黑箱问题,即“技术黑箱”;二是算法编写开发需要较高的专业技能,对于非专业人员来说很难以理解和判断,即“解释黑箱”。三是开发和应用算法的企业在面向利益相关者的运营层面存在黑箱,即“组织黑箱”。三个层面的算法“黑箱”互有叠加,交织在一起。在这三类算法“黑箱”中,“解释黑箱”居于承上启下的枢纽位置。解决算法“黑箱”的复杂实践难题,不能单单从技术方法上入手,需要找准“解释黑箱”的突破口。2.识别并分析了算法主要利益相关者。从影响力、正当性、紧迫性三个维度,确定开发者、应用者、用户、监管者这四类利益相关者,他们在与算法相关的企业活动中都处于较高水平,是算法价值链中涉及到主要利益相关者。文中从基本责任、面临问题、改进方式、资源优势等方面,对开发者、应用者、用户和监管者之间的关系进行了对照分析和归因,探讨了在算法价值链中的不同环节上主要利益相关者的资源优势发挥机制。文中发现,对不同利益相关者而言,采取不同手段和形式,增进他们在算法活动中的参与度,是应对算法技术所带来的算法黑箱及相关的风险挑战的重要一环。3.针对算法风险及算法“黑箱”问题,提出了算法责任基本内涵。通过对算法发展所产生的广泛影响的梳理,界定了算法技术普及应用所带来的技术、经济、社会、道德等普遍风险,并结合算法“黑箱”问题,进一步界定算法歧视、算法共谋、算法操控等三类具体风险。针对这些风险因素,引入了负责任研究与创新理论,借鉴其中的“预见-反思-包容-回应”四维行动框架,并充分考虑不同利益相关者参与的需求和期望,从而确保在算法研发与应用过程的各个重要环节上,都建立有担责机制。本文的创新之处主要体现在以下两个方面:1.多研究视角结合分析算法责任问题。目前关于算法“黑箱”问题与算法责任的研究,多数从单一技术视角出发,或单一伦理视角出发,认为算法“黑箱”通过改进和完善算法,或通过强调算法决策过程中的伦理观念,可以得到解决。而本文则将算法责任的研究重点,聚焦于算法价值链的核心利益相关者,特别是算法应用平台企业的责任意愿、行为和绩效上,明确从企业视角和思路关注并尝试解决算法“黑箱”问题。文中借鉴和综合了多种理论方法,对算法责任实践问题进行了跨学科和多角度的分析,提出了以负责任研究与创新为基础的算法责任理论框架。这在目前关于关注算法责任问题的研究中,具有一定的创新性。2.建立算法责任的概念模型并进行了实证分析。目前,关于算法责任问题的研究,多从伦理学、哲学、法学等宏观视角出发,它们在为算法责任提供理论和制度实践的有益指导的同时,并不能完全覆盖基于企业和其他利益相关者互动实践所产生的各种中观和微观的具体实践活动。在很多情况下,宏观政策规制和价值引导,需要依赖于中观和微观的企业实践,需要通过一个个市场主体的相互作用来真正发挥作用。本文的研究既融合了科技伦理的宏观视角,关注算法广泛应用背景的宏观风险,又结合了管理学的理论与方法,构建了算法责任的概念模型,再通过调研问卷方法,开展了实证研究,将较难通过实践检验的科技伦理问题和企业社会责任问题结合在一起,揭示了负责任研究与创新通过利益相关者参与而作用于算法责任的效应。