从试管婴儿到人工智能,如何改造我们所知道的生命?( 二 )


但是 , 如果是为一个出生时肌肉量过少的人增加额外的肌肉呢?再进一步 , 如果是为想要变得更强壮的人增加额外的肌肉量呢?这似乎并不是一个公共卫生问题 , 而是更多地与个人选择联系在一起 。 划定界线有时可以十分简单 , 但在其他时候 , 又可能非常复杂 。
“我们需要思考的事情之一 , 就是根据我们所获得的信息 , 比如产前筛查中有关唐氏综合症的信息 , 来考虑人们决定不进行某种编辑的难度有多大 , ”彼得·米尔斯解释道 , “相关的规范已经改变 , 以限制唐氏综合症患儿的数量 , 但这距离消灭那些可能生育出低智商儿童的人其实并不遥远 。 ”
“规范的改变没有任何问题 , 但我们需要有条不紊地改变 , 并且是以一种考虑到这些变化的方式 , 特别是对于处在脆弱地位的人们——那些可能受到间接影响但实际没有参与这些特殊选择的人 , ”他补充道 , “一个例子是 , 如果患有唐氏综合症的人数减少 , 因此患有遗传性疾病的人也越来越少 , 那么对于那些有其他发育需求 , 但可能无法或者没有被‘编辑’的人们来说 , 应该做出哪些行为和资源上的改变呢?”
然而 , 围绕人造生命的对话并没有局限于生物学的发展 。 人工智能是信息技术世界的热门话题 , 许多人甚至都没有意识到自己已经在使用人工智能作为核心技术 , 这就提出了关于人类与似人类数字产物互动的伦理问题 。
英国开放大学高级讲师、开放数据(Open Data)专家托尼·赫斯特(Tony Hirst)博士对人类每天使用的技术系统如何影响更广泛的人类行为十分感兴趣 。
有人担心 , 随着我们与语音助理和聊天机器人之间的关系趋向于苛刻和专横 , 这种行为或许会转化为针对其他人的态度 。 “这听起来似乎有点像关于电脑游戏和暴力电影的争论 , ”托尼·赫斯特说道 。
一种观点声称 , “我只是以辱骂的方式朝着女声智能助手大喊 , 并不意味着我会对伴侣这么做” , 因此这种行为不会转移 。 但是 , 另一方的观点则提出 , “如果你以一种非常人性的方式对待某种事物 , 那这种行为在什么程度上才会转移?”
不久前 , 谷歌公司推出的智能语音助理技术“Google Duplex”在对话中增加了“额”、“嗯”和“mhmm-hmm”等语气词 , 进一步模仿了人类的真实对话 。 许多人开始担心利用这种技术的恶意企图 , 因为机器可以通过这一方式让人以为它们是真人 。
亚马逊公司的虚拟助手Alexa也成了大新闻 , 据透露 , 它的“魔力单词”(Magic Word)功能可以奖励那些说“请”(please)和“谢谢”(thank you)的孩子 , 并且对于那些还没学到字母“L” , 只能说出“Awexa”的孩子做出回应 。 这引发了有关机器在幼儿请求的背后做出现实决定的问题 。
当然 , 这两个例子的积极因素都很明确——功能更强大的数字助理可以节省你的时间 , 并且让孩子更有礼貌 。
创造不同形式的人造生命有着复杂的伦理含义 , 似乎没有一种正确或错误的答案 。 而且 , 这些技术发展的影响和反响可能只有在它们应用于社会之后才能为人所知 。
谁也不知道40年后我们会处于什么样的环境 , 但如果说我们能从IVF技术的故事中学到些什么 , 那可能就是对新兴科学的初期看法有时候是牵强附会的 , 而且没有经过深思熟虑 。 但同样地 , 我们还从未见过像今天人工智能这样日新月异的计算技术 , 因此各方面的关注和担忧都应该被提出来并加以讨论 。
康妮·奥巴赫认为 , 尽管更有争议性的技术仍然远未实现 , 但我们仍然有必要现在就进行讨论 , 以更负责任地规划这些技术的未来发展 。 “我们正在谈论的许多事物还有很长的路要走 , ”她说 , “但同样地 , 它们可能会在某个时刻出现 , 因此我们需要思考在适当的时候采取适当的监管措施 , 这样无论我们决定做什么 , 都要在某个框架内完成 。 ”

推荐阅读