理工男要统治地球了吗?
作为一名计算机学科的博士,我酷爱大数据。但我并没有把数据看得太过神圣,因为我学到的一切知识,都是通过数据而得来的,不管是性,还是莎士比亚。一些把数学神圣化了的人也因此愤怒反驳过我。十几岁的时候,我在斯坦福大学学会了计算机算法,通过这种优雅又致命的武器,我可以在互联网上找出最危险的通缉犯,也可以透过人们在网上的发言察觉到他对政府的不满。
计算机科学的确很奇妙。但问题在于,硅谷的许多人认为计算机科学超越一切。比如招聘会上,那些面试员态度很鲜明,他们只对计算机科学背景的人感兴趣;比如工资对比,计算机工程专业学生明显要比其他非工程专业高出不少;再比如,当人文学科的学生透露自己的专业时,他们会受到质疑与不屑。
我曾见过一些杰出的计算机科学家对自己正在研究的人群表示出可悲的无知,我对他们进行了当面嘲笑。我曾见过一些军事科学家以孩童般的热情向人展示自己创新研制的杀伤性武器,却对这些武器的目标攻击人群闭口不谈。世界上最恐怖的事情莫过于,科学家可以就如何枪击同类进行一场学术对话,却无法给出这样做的理由。
许多计算机学科专家对非技术性研究方法不甚了解,充满蔑视,这种状况令人担忧。而在我的日常工作中,会不断遇到代码无法解决的问题。在在线教育平台 Coursera 担任程序员时,我编写了一个算法,可以参考用户性别对其推荐相应课程,但公司并没有将其投入使用,因为我们发现,这个算法根本不会向女性用户推荐计算机科学课程。
事实证明,计算机算法加剧了社会差距,其影响已经扩散到包括刑事司法和信用评分在内的社会各个领域。这其实是一个两难困境,拿刑事司法领域来说,一个满足了基本统计需求的算法,更有可能将黑人被告判为高危罪犯,即使这些黑人不会再犯。
对此问题我表示无能为力,因为我在算法教材里找不到解决办法。而在塔-内西斯·科特斯关于制度歧视或者米歇尔·亚历山大关于大规模监禁的著作里,我或许会找到相关事实。
我的个人编程项目也出现了同样棘手的伦理问题。我是否应该编写一个程序,来下载厌食症咨询网站上公布的数千名患进食障碍的青少年的联系方式?又是否应该编写一个程序,在各大高校的论坛上匿名发帖,说自己有自杀倾向,来调查一下哪所高校的师生最支持自杀呢?
顺便说一句,我的答案是“不”。计算机的伟大与危险之处都在于,它可以把你的奇思妙想变成现实,并且影响他人。一个冲动的想法经过计算机编程后,可能会伤害成千上万的人。
或许,如果让计算机科学家负责他们最擅长的编码,把管控产品的任务交给其他人,办事效率是不是会更高?事实上,这远远不够。
程序员编程的速度往往十分惊人,而且行业内幕不为外人所知。等到相关法规出台时,可能数百万人已经受到了伤害。在其他专业领域,人们上岗之前往往要接受道德培训。部分原因在于,对于像医生和律师这样的职业来说,职业道德极其重要,尤其是在无人监管的情况之下。
此外,需要有计算机科学家的帮助才能制定相关行业法规,因为他们有必要的技术专业知识。如果你对词嵌入(word embedding)一窍不通,又如何能规范词嵌入领域的算法歧视现象呢?
以下是一些具体做法。
首先,大学应该扩大计算机科学专业学生的知识培训范围。我曾调查过八所顶尖学府的计算机本科课程体系,发现大多数学校并不要求学生学习计算机科学中的伦理与社会问题(尽管有些学校会提供相关选修课程)。
这类课程确实不太好教,计算机科学家们也往往不够重视。他们不习惯非定向思维,对自己的数学能力非常自信,并且相信实用主义可以解决一切问题。但无论如何,大学还是要勇于尝试。教授需要让学生对计算机科学充满敬畏;要让学生知道,他们掌握的技能不仅可以使自己发家致富,还会毁灭生命;还要教他们学会谦卑,让学生明白,数学能力再优秀,大千世界里他们还有很多未知的事情。
通过学习社会类课程,程序员危害社会的可能性会有所降低,而且可能会因此造福社会。算法交易等领域对社会虽无大用,但是回报可观,因此许多顶尖学府在这些领域投入了大量技术型人才进行研究。
斯坦福大学的计算机学科专家吴恩达同时也是 Coursera 的联合创始人,他在斯坦福大学招聘时对众学子劝诫道:“你必须问自己为何要学习计算机科学。很多学生可能会回答,因为我可以设计出最流行的社交媒体应用……而我认为,我们可以创造出意义更大的东西。”
科技公司也应当采取一些措施。企业应该反思一下自己产品中的社会和伦理问题。比如,谷歌和微软研究了算法歧视,Facebook 调查了回音室效应,这些都值得称赞。
Facebook 用1010万用户行为数据解释“回音室”效应
当外部研究者评估产品影响时,企业应该积极配合,尽量说明自己的算法工作原理,在数据使用协议允许的范围内适当公布数据。(研究人员还应允许在不被起诉的情况下进行算法检测。)
招聘面试时的问题也不应只局限于计算机算法,还应考察对方的社会伦理知识。同时,学生也应该学会如何应答招聘经理的提问(微软的 CEO 曾在技术采访中被问到,如果看到一个婴儿躺在十字路口他会怎么做,而他的答案当然不是常人都能想到的将婴儿抱起)。
企业应该雇佣一些被自家产品侵犯过的人群或者非产品目标用户的人群,他们的脸部可能无法被计算机视觉系统识别,他们的笑容可能无法被 emoji 表情捕捉,他们的简历可能跟公司不大相关,他们的住房选择可能受到了公司政策的限制,他们可能深陷网络巨魔的圈套(企业为网络巨魔提供了平台,却没有加以有效控制)。招聘一些其他领域科学家进公司来,让他们参加午餐会谈,使其对公司原有的世界观造成冲击。
倾听这些非计算机领域科学家的意见,可能会减缓硅谷的发展脚步,因为不同世界观的碰撞难免产生分歧。但是,当有人提出理性的反对声音时,适当放慢脚步只会有益无害。在今天这个数字战场会决定总统选举输赢的时代里,科技巨头们需要放缓自己前进的步伐,不忘初心。
━━━━━
撰文:Emma Pierson 翻译:陈哲震