Business School
博士后资讯
手机:13521943680
电话:010-62904558
聚焦斯坦福大学即将离任的博士后凯瑟琳
聚焦斯坦福大学即将离任的博士后凯瑟琳,虽然一些人争论人工智能是否会在未来发展出“意识”,但斯坦福大学麦考伊家庭社会伦理中心的第一位嵌入式EthiCS研究员凯瑟琳•克里尔(Kathleen Creel)对“机器学习可以帮助人类更好地了解我们自己和我们的世界,从而更好地安排我们的社会、认识和科学实践”的方式更加强烈。
自从她在威廉姆斯学院(Williams College)攻读哲学和计算机科学双学位以来,克里尔一直对人类与计算机之间的联系感兴趣。毕业后,她在麻省理工学院林肯实验室担任软件工程师,每天喜欢解决具有挑战性的新难题。但她渴望做“哲学家最擅长的事情......弄清楚单个谜题如何适应更广泛的认识论和规范背景。当她和她的团队开发下一代卫星终端时,她想知道软件系统的基本不透明性,“如此庞大和复杂,以至于没有人能将整个代码库牢记在心。“什么,”克里尔问自己,“我们需要了解这样的系统才能觉得它们是值得信赖和可靠的吗?透明度在认识论上有什么价值?当她进入西蒙弗雷泽大学(MA)和匹兹堡大学(PhD)的哲学研究生院时,这些问题成为她研究的基础,也是她的第一本出版物《复杂计算系统中的透明度》(Transparency in Complex Computational Systems)的基础,她在书中确定了关于不透明计算系统的三种知识形式。
作为嵌入式 EthiCS 研究员,Creel 与以人为本的人工智能研究所 (HAI) 合作,仍然致力于理解复杂的软件系统,他的主要项目之一是探索“在整个部门或生活领域使用相同或相似的机器学习算法所产生的同质化和标准化的作用”。例如,当公司使用机器学习来筛选简历时,系统通常会使用一种算法来消除 90-95% 的简历,然后再由任何人评估剩余的工作申请。克里尔推测,“如果这些算法犯了一些系统性错误,那么同一个人可能会被拒绝从事许多不同的工作,这加剧了我们已经知道的群体层面的偏见,导致边缘化群体的人平均考虑率较低。她一直在与计算机科学家和劳动经济学家进行跨学科合作,以确定这种现象是否发生在真正的算法招聘系统中。一旦克里尔证明了这一点,她“就可以对这种现象为什么以及在什么情况下这种现象在道德上是错误的和对民主的关注进行仔细的哲学分析。
除了追求自己的研究兴趣外,Creel 还直接与计算机科学教职员工合作,帮助他们作为嵌入式 EthiCS 研究员将伦理融入核心课程。与其参加独立的伦理课程,认为伦理学和哲学是计算机科学的辅助课程,不如设计核心课程,要求学生“思考每个新学习的技术能力所带来的伦理考虑”。虽然克里尔认为这项工作对社会很重要,但她也发现学生们“真的想知道如何做正确的事情,以及如何避免犯错误或疏忽,他们会后悔。
回顾过去在斯坦福大学的两年,克里尔分享道:“跨越计算机科学和哲学这两个世界是一种巨大的快乐。研究生毕业后加入该中心的奇妙之处之一就是开发了一种更清晰的方式,将我的两个知识分子的爱好结合在一起:弄清楚哲学可以给计算机科学带来什么,以及计算机科学如何帮助我们更好地进行哲学分析。今年秋天,Creel很高兴能与她的同事和学生分享这些见解,她是东北大学Khoury计算机科学学院和哲学与宗教系的助理教授。