加入收藏 | 设为首页 | 会员中心 | 我要投稿 PHP编程网 - 黄冈站长网 (http://www.0713zz.com/)- 数据应用、建站、人体识别、智能机器人、语音技术!
当前位置: 首页 > 运营中心 > 建站资源 > 经验 > 正文

斯坦福开设AI法律课,人工智能能否成为法律主体?

发布时间:2019-04-05 14:42:04 所属栏目:经验 来源:硅谷密探
导读:副标题#e# 去年3月,亚利桑那州发生一起Uber无人驾驶汽车撞死行人事故。直到今年年3月5日,美国检察官表示:Uber公司不用担责,但自动驾驶汽车的后备司机Rafael Vasquez的行为应提交警方进行进一步调查。 事故现场,图片来自网络 然而,在2016年2月,谷歌无
副标题[/!--empirenews.page--]

去年3月,亚利桑那州发生一起Uber无人驾驶汽车撞死行人事故。直到今年年3月5日,美国检察官表示:Uber公司不用担责,但自动驾驶汽车的后备司机Rafael Vasquez的行为应提交警方进行进一步调查。

斯坦福开设AI法律课,人工智能能否成为法律主体?
事故现场,图片来自网络

然而,在2016年2月,谷歌无人驾驶汽车在加州山景城测试时,与一辆公交大巴发生碰擦,美国高速公路安全管理局(NHTSA)却确认,用于自动驾驶的人工智能系统可以被视为司机。

人工智能的异军突起将这样的案件带入公共视野,也为当前的法律法规、伦理规范和政策体系带来不小的考验:

“人工智能的载体究竟是不是法律主体?”

这样的问题在斯坦福大学新开设的一门法律和计算机科学交叉的课程上激起了热烈讨论。如果不是法律主体,那么当人工智能载体触犯他人利益、造成社会损失时,究竟应该由研发者、运营者还是使用者承担责任呢?如果是法律主体,那么又该如何为这些“人工智能”定罪量刑呢?

今天小探就带你一起看看,在人工智能冲击传统法律、公共政策的当下,斯坦福大学的教育专家和法律人士都在做些什么努力。

AI制定政策?联邦政府早已启动

不要以为人工智能只是科技公司的专利。事实上,近年来美国联邦政府已经开始考虑使用机器学习和人工智能相关技术帮助公共政策的制定。

美国环保署(EPA)管理杀虫剂的例子就很好体现了算法分析和法律相互作用的微妙形式。

过去,美国环保署对杀虫剂的毒性检测很大程度上取决于动物对化学药物的反应。但面对超过80000种待检测化学药物的压力,这种方法被普遍评价为缓慢、昂贵、又不人道。

后来,美国环保署开始大量收集数据,并引进不同计算方法来规范化学毒性检查。它建立了一个聚合计算毒理学资源库(Aggregated Computational Toxicology Resource),根据各种公共资源整合的关系型数据库,用以支持数据挖掘和建模。——在算法与神经网络对数据的分析中去寻找决策新思路。

当人工智能介入法律决策,美国的残疾索赔程序也开始发生变化。

2013年以来,为了减少工作人员审理纸质文件的负担,并提高案件决策一致性,美国退伍军人事务部推出了一套计算机案件管理系统,用于处理退伍军人的残疾索赔。

据报道,该系统可以根据索赔人(自我报告)的调查问卷,从0-100%自动评估不同退伍军人的残疾程度。目前这套软件使用的是IBM Watson 的人工智能程序,从退伍军人的电子医疗记录中进行数据筛选。

科技巨头,政府数字化改革的合伙人?

今年2月,特朗普签署了一项推广人工智能的新行政命令,再次将人工智能升级为国之重策。然而目前除了军事部门,大部分联邦机构的技术更新依旧缓缓慢,高技术人才也相对紧缺。哪里高级人才多?当然要属硅谷的科技巨头们了。

那么,处于技术前沿的科技公司又在联邦政府的技术升级中担任什么角色呢?

像IBM等科技巨头跟政府已在人工智能领域有多个合作项目:

美国海军陆战队正在使用Watson的人工智能设备来诊断军用车辆的性能,并将自然语言处理和数据科学——例如IBM的SPSS统计软件和Watson Explorer——应用于人员的组织和部署。在不久前,这些大部分计划和日程安排都是通过电子表格完成的。

斯坦福开设AI法律课,人工智能能否成为法律主体?
AI正在改变海军陆战队的部署方式,图片来自IBM官网

除了技术上的支持,科技公司也会在核心科技的政策、监管、应用前景方面与政府交换意见。

今年2月,谷歌便向美国政府提出了一份长达34页的《关于人工智能管理的意见》(Perspective on Issues in AI Governance),呼吁政府和社会、工业界就人工智能的可解释性标准、公平性评估、安全考虑和责任框架等方面进行合作。

谷歌建议,要像欧洲的电子产品在销售前需经过CE认证一样,美国政府也应为人工智能创建类似的安全指标。“例如,针对智能锁当中的生物识别技术,就应在使用前测试它的准确度是否达标。”谷歌的新兴技术全球政策负责人Charina Chou表示。

尽管不少科技巨头都与政府在技术方面的合作项目,但如果这些项目有涉及侵犯隐私、违背伦理的风险呢?

还记得谷歌和美国国防部合作的Maven项目吗?这个去年3月被爆出后闹得沸沸扬扬的项目,是谷歌把人工智能技术用于分析无人机镜头当中,帮助无人机更好地从移动或静止图像中自动追踪感兴趣对象,从而提高打击精准度。这些无人机可能会参与到美国对阿富汗、巴勒斯坦、也门等国的空袭当中。

很快,超过4000名谷歌员工签署了一份反对“Maven”项目的请愿书,他们在《纽约时报》刊登了整版广告,并导致了数十名员工辞职。最终,去年6月,谷歌松口了。表示将在今年3月到期后,不再与国防部续约合作。

斯坦福开设AI法律课,人工智能能否成为法律主体?

450多名亚马逊员工也在近日公开致信贝索斯,希望公司停止与美国国防部和执法系统就面部识别软件 Rekognition 合作的项目。他们担忧的地方在于,执法部门在没有公众监督、社会问责和亚马逊限制的情况下使用这些技术,很可能造成对人权的侵犯。

然而,贝索斯表示,公司将持续和国防部合作,“如果大科技公司都拒绝了国防部,那么这个国家会陷入麻烦……这是我们该做的事情,就算它不受欢迎。”

人工智能与行政结合的优势与担忧

到底人工智能对政府绩效的改善有哪些优点?主要有三点难以抗拒的优势。

第一是效率。以较低成本完成大量重复性事件。另一方面,机器能在排除个人因素干扰的前提下进行数据分析和结果预测。决策者可能表现出种族偏见,可能过分地或不足地衡量某一信息的重要性,或者可能对所处情况的预设过于天真。对人为意志的排除使机器做出的决策有天然的说服力。

(编辑:PHP编程网 - 黄冈站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读