在科技日新月异的今天,人工智慧(AI)的应用逐渐渗透到各行各业,并成为改变竞争格局的重要因素。然而,这也引发了一些重大的道德和法律问题,尤其是在美国军方与科技公司之间的合作上。最近,Scale AI的军方合作引起了广泛关注和争议,引发了对科技企业与军事应用之间界限的思考。
成立于2016年的Scale AI,总部位于加州旧金山,由 Alexandr Wang 和 Lucy Guo 创办。在创立之初,Scale主要透过人工来进行数据标注,旨在满足算法无法完成的任务。随着自动驾驶汽车(AV)行业的兴起,Scale很快发现自身在数据标注领域的潜力,并开始进一步发展以满足该行业的需求。
根据报导,截至2024年,Scale的估值已达到140亿美元,并通过政府合同获得近8000万美元的收入。
Scale AI不仅是自动驾驶汽车企业的数据标注供应商,还积极向美国军方推销其数据分析服务,协助军方在与中国的竞争中保持技术优势。这一合作在2019年获得了巨大的商机,Scale与美国国防部签订了一份价值2亿4900万美元的合同。
Wang提到,没有私营技术公司开发的AI,美国将难以维持对于中国日益增长的军事力量的技术优势。
虽然Scale在行业中取得了迅速的发展,然而与军方的合作却引起了外界的强烈反对。一方面,军事应用中使用AI技术的潜力无疑会提升作战效率,但另一方面,也有声音担心这样的技术在道德上和法律上的风险。
例如,Scale的数据标注服务涉及的工人,主要来自于东南亚和非洲的一些国家,他们的工作条件、工资水平和收入保障等问题引发了广泛的关注。
有研究指出,Remotasks这一由Scale创建的内部外包机构,在道德标准上令人担忧。仅有两项标准被认为满足最低要求。
为了降低成本,Scale在2017年成立了Remotasks,这使他们能够控制工资开支,然而却也因此招致了对工人剥削的指控。根据《华盛顿邮报》的报导,Remotasks的工人面临工资低、支付延迟以及缺乏投诉渠道等问题。这些问题引发了对于科技公司在全球化背景下的商业道德的质疑。
一位前员工回忆道,因为对支付问题提出抱怨而被锁定账户,让他无法再进行工作。
随着AI技术的发展,与军方的合作恐怕将成为固定现象,但这也提出了对于科技公司如何在道德和法律的边界之间寻求平衡的挑战。 Scale AI的情况是一个警示,它再次提醒我们,技术不应该以牺牲工作者的权益为代价,而应在促进创新与公平之间找到适当的平衡点。
当科技瞬息万变,我们是否能够在追求进步的同时,对道德与法律的底线保持警觉呢?