谷歌将黑人识别成“大猩猩”两年后:正在“研究更长期的解决方案
谷歌 AI 曾将黑人识别为“大猩猩”:两年后的反思与未来展望
在两年前的一次尴尬事件中,谷歌的人工智能(AI)系统因将黑人照片误识别为“大猩猩”而引发社会广泛关注。如今,回首这段历程,我们不禁思考:谷歌在这背后所面临的挑战,以及正在采取的措施。
当时的事件源于一个令人震惊的投诉,一名黑人软件开发人员在社交媒体上披露了他的经历。谷歌对此深感震惊并道歉,并立即着手研究更长期的解决方案。如今,已经过去了两年多的时间,谷歌开始删除其照片服务中的大猩猩和其他灵长类动物的标签,以应对这种偏见风险。这一举措反映出谷歌在推进图像识别技术时,仍面临着诸多困难。尽管这些科技巨头希望将这类技术应用于自动驾驶汽车、个人助理等产品上,但实际应用中仍存在诸多挑战。
针对谷歌的照片服务,《连线》杂志进行了一系列有趣的测试。在测试过程中,谷歌的照片服务展现出了惊人的识别能力,能够轻松识别出熊猫、贵宾犬等动物。当涉及到“大猩猩”、“黑猩猩”和“猴子”等词汇时,谷歌却给出了“无结果”的反馈。这表明,谷歌在审查这些词汇时采取了谨慎的态度。
谷歌的一款移动应用和网站——谷歌照片,为用户提供了管理和备份个人照片的地方。其使用机器学习技术自动对照片进行分组和搜索。《连线》杂志的测试揭示了谷歌照片在识别某些灵长类动物方面的局限性。尽管它可以识别出某些狒狒、猩猩等,但对于大猩猩和黑猩猩的识别却存在困难。
更令人担忧的是,在针对面部识别的测试中,谷歌对“非洲裔美国人”等词汇的搜索返回的结果并不理想。这反映出谷歌AI系统在处理深色肤色人群的图像时,仍存在明显的不足。谷歌的一位发言人在电子邮件中承认:“图像标签技术还处于早期阶段,还远远不够完美。”他强调了用户报告错误的机制的重要性。
这一事件揭示了现有机器学习技术的一个主要问题:尽管我们拥有大量的数据和强大的计算能力,软件可以被训练用于图像分类、语音识别等任务,但它们仍然难以超越从训练中得出的经验。即使是最先进的算法,也缺乏像人类那样运用常识或抽象概念的能力,来完善它们对世界的诠释。
谷歌对大猩猩图片的谨慎处理,为我们提供了一个思考的机会:在人工智能飞速发展的我们也需要关注其可能带来的偏见和歧视问题。未来,谷歌和其他科技公司需要投入更多的精力和资源来解决这些问题,以确保人工智能技术能够真正地为所有人服务,而不只是某些人。我们期待看到更多的创新和技术突破,以推动人工智能朝着更加公正、公平的方向发展。