在大脑中植入电极刺激神经活动后,有些人报告说他们有种身份认同被改变的感觉。SIP/UIG/GETTY 四项要点 神经技术若要在普通消费者市场里兴起,这些设备必须是非侵入性的,风险很小,而且部署费用要低于目前的神经外科手术。现在,那些正在开发类似设备的公司必须对其产品负责,应以一定的标准、最佳实践和道德规范为指导。 在此,我们强调有四个方面的问题需要我们立即采取行动进行应对。尽管我们是在神经技术的语境下提出这些问题的,但它们也适用于人工智能。 隐私权和知情同意权。从人们的数据轨迹中可以获取非常多的个人信息。例如,麻省理工学院的研究人员在2015年发现,通过研究人们在个人设备上的键盘输入模式,精细地分析他们的运动行为,使得早期诊断帕金森氏症变为可能。2017年的一项研究表明,测量人类的运动模式,比如在日常活动中使用智能手机的人的运动模式,可以用来诊断阿尔茨海默病造成的认知障碍的早期症状。 如果利用神经信息的话,比如参考那些与特定注意力状态相关的神经元的活动模式信息,用于投放广告、计算保险费或匹配潜在伴侣的算法就会变得更加强大。与互联网连接的神经装置打开了个人或组织(黑客、公司或政府机构)追踪甚至操纵个人精神体验的可能性。 我们认为公民应该有能力和权利保护他们的神经数据隐私(参见“主观能动性和身份认同”)。我们建议采取以下步骤来保障这一点。 对于所有的神经数据,默认都应能选择不分享,这一点应当得到严格保护。如今人们很容易把他们的隐私权拱手送给提供各种服务(比如网络浏览,社交媒体或娱乐)的商业机构,而从未真正认识到他们交出的究竟是什么。 如果默认选项就是拒不分享的话,则意味着神经数据在大多数国家都会被以和器官或生物组织相同的方式对待。如果个人要从任何设备共享神经数据的话,他必须明确地选择和确认这一点。其中将涉及一个安全保障过程,包括一个知情同意程序,明确规定谁将使用数据,目的是什么,以及使用多长时间。 即使实施这种方法,根据许多自愿分享者的神经数据,再加上来源于互联网搜索、运动监视器等等多种渠道的大量非神经数据,也能得出关于那些选择不分享的人们的“可靠”结论。为了遏制这一问题,我们建议对神经数据的销售、商业转让和使用进行严格的管制。 这样的法规也将限制人们放弃自己的神经数据或将神经活动直接写入自己的大脑中,从而换取物质报酬,可能类似于禁止出售人体器官的立法,比如1984年的美国《国家器官移植法案》。 另一重保护措施是限制神经数据的集中处理。我们提倡使用类似差分隐私或者联合学习的计算技术,来保护用户隐私(参见“保护隐私”)。使用其他专门用来保护个人数据的技术也会有所帮助。 保护隐私,联合学习 当科技公司使用机器学习来改进他们的软件时,他们通常会在服务器上收集用户信息,分析特定服务是如何被使用的,然后在集合的数据上训练新算法。 谷歌的研究人员正在试验另一种人工智能训练方法,即联合学习。使用这种训练方式时,教学训练过程发生在每个用户的设备上,而没有聚合数据再进行处理的过程。从单独数据中总结出来的知识(例如, “weekly” (每周) 这个词在英语里可以用作形容词和副词)被发回谷歌的服务器,但实际的电子邮件、短信等信息仍然保留在用户自己的手机上。 其他团体也在探索类似的思路。因此,改进设计后的信息系统更加保障了用户对个人数据的所有权和隐私,同时仍然可以在这些数据上执行有价值的计算。 例如,基于区块链的技术可以让数据能被跟踪和审计,而“智能合同”(Smart contracts)则可以对数据的使用方式进行透明的控制,而不需要集权。最后,开放数据格式和开源代码可以让我们更透明地知道什么信息将保持私密,而什么信息会被传递分享出去。 主观能动性和身份认同。有些人通过在脑内植入电极接受深部脑刺激,他们报告说感觉自己的身份和能动性被改变了。 (责任编辑:admin) |