
在人工智能中 сохранение 开放价值观
2023年将被记住为所有人及其叔叔都听说过生成式人工智能的一年。ChatGPT 的爆炸式普及向数百万人展示了这种系统可能拥有的力量,引发了对它们可能如何发展的恐惧和兴奋。
从拜登总统的关于安全、可靠和值得信赖的人工智能开发和使用的行政命令,到 欧洲联盟的人工智能法案在 2024 年 3 月欧洲联盟人工智能法案之前获得批准,立法机构通过尝试监管这个不断发展的领域做出了回应。
来自学术界和行业领导者的声音都在反思如何确保最佳结果:符合伦理道德且公平开发的人工智能,同时兼顾保持健康的创新和市场竞争的需求。在这场辩论中,David Gray Widder、Sarah West 和 Meredith Whittaker 发表了一篇题为“开放(为了商业):大型科技公司、权力集中和开放人工智能的政治经济学”的立场文件。
作者批判性地看待 корпорации 利用开源承诺在其人工智能程序中发挥作用,同时没有提供符合开源原则的真正的透明度。

此外,他们强调了这样一个担忧,即这些参与者受益于开源爱好者在公司给定的参数范围内进行开发所付出的免费劳动。然而,在提出这些批评时,Widder、West 和 Whittaker 贬低了开源应在人工智能系统开发中发挥的作用。是的,批判性地评估在提出这些主张时,开源价值观在多大程度上得到维护不仅是必要的,而且绝对是至关重要的。但在这样做时,作者们低估了“开放”人工智能系统的透明性可以提供的核心作用。
作者提出的一个担忧是,与从头开始创建“传统”软件相比,创建人工智能模型需要更多的资源,导致人工智能开发发生在大型科技公司的程序中,例如 Meta 的 LLama2。这使得已经强大的公司可以从他人的劳动中获利。他们坦率地表达了对人工智能开放性民主化的怀疑,并指出,“虽然最大程度的‘开放’人工智能是任何假设的民主化和公平的人工智能竞争环境的必要条件,但它不是充分条件”,而且不止一位作者质疑人工智能是否能够实现民主化。
为所有人开放,而不仅仅是为了商业
虽然开源爱好者参与度有限是一个合理的担忧,但开源本身并不承诺民主化。开源可以成为民主化努力的工具,但它需要与额外的政治举措相结合才能真正有效。
此外,大型科技公司从开源爱好者的免费劳动中获利的担忧,并非人工智能开放性所独有的担忧,尽管它由于固有的排他性而挑战了其参数。建立在他人劳动的基础上并站在巨人的肩膀上是开源社区的核心。问题不在于开放性,而在于这些公司积累的巨额财富以及这些资源没有涓滴到社区。这是一个政治问题,而不是开源问题。

三位研究人员还讨论了“开放清洗”,即 корпорации 使用“开源”甚至“人工智能”作为营销术语。规模更大的 корпорации 拥护流行语,作为对政治意识更强的消费者的表达,并非人工智能甚至科技行业所独有。以时装行业的“绿色清洗”为例,指的是公司使用不受监管的术语(例如“可持续”或“天然”)来误导消费者,同时美化其公众形象。虽然认识到人工智能在公共和私人领域的影响范围可能更具侵入性,但这仍然是一个 корпорации 如何在其营销中不受监管的问题,尤其是在他们使用普通民众熟悉的术语时,即使他们对什么是(事实上,没有任何既定的定义人工智能的开放性是什么)。
如果我们放弃开源在人工智能模型中的样子,那么在评估模型是否对每个人和每种用途都可用时,我们应该考虑哪种工具?
开放性不是评估系统安全性和有效性的唯一工具,尽管如此,它仍然是一个相关的参与者。令人担忧的是,如果我们确实削弱开放性作为一种影响力的重要性,那么除了大型科技公司之外,哪些利益集团将取而代之?这种开放性提供的自下而上的方法可能面临被更技术官僚式的开发和评估方式所取代的危险。如果我们准备拒绝人工智能领域的开源,那么我们也必须问:如果不是开放性,那么我们将使用什么标准来对程序的架构在多大程度上具有代表性、安全性和有效性进行分类?
没有必要放弃开放性。在论文中,作者就人工智能领域的开源需要如何以不同的方式对待提出了重要观点。
他们指出,那些能够开发的人需要拥有大量资本,以及对人工智能实际上是什么的困惑如何成为一种利润工具,从而允许“开放清洗”。
作为一种标准,在坚持开源的同时,仍然需要认识到其在人工智能环境中的实施方式将有所不同。虽然批判性地看待大型科技公司对开放性的工具化利用至关重要,但这不应削弱开源在今天的相关性。
在这个人工智能快速发展的时代,开放性至关重要。这不会是第一次出现新技术,但开源倡导者错过了机会——我们不能让它再次发生。
在定义开源人工智能时,让我们考虑一下这个定义在哪些方面需要以不同于我们今天所知的应用方式来应用。
2 条评论
评论已关闭。