Illia:关于AI与监管的几点思考

--

我们每周都会看到针对大型AI公司的诉讼以及监管机构之间关于如何正确管理AI安全的内讧的头条。从著名的OpenAI高管因安全问题而离职,到举报员工呼吁提高透明度,很明显,即使是那些最接近技术的人也担心超级强大且封闭的AI带来的风险。我们如何才能最好地管理这种风险呢?

我们每周都会看到针对大型AI公司的诉讼以及监管机构之间关于如何正确管理AI安全的内讧的头条。从著名的OpenAI高管因安全问题而离职,到举报员工呼吁提高透明度,很明显,即使是那些最接近技术的人也担心超级强大且封闭的AI带来的风险。我们如何才能最好地管理这种风险呢?

我认为,仅靠监管并不能使我们免于大型科技公司垄断企业拥有的AI。现在还有时间让AI变得公平、开放、对世界有益 — — 但时间不多了。AI必须是用户拥有的和开源的,才能成为人类的积极力量。

我是transformer的共同创造者之一,transformer也就是ChatGPT中的“T”,它是我们在世界上最大的科技公司之一的内部创建的。在发表该研究后不久,我离开了公司,成立了一家初创公司,并以开源(软件源代码开放供他人阅读和使用)的方式构建。虽然我从根本上相信AI可以改善人类生活并最大限度地发挥我们的集体智慧,但我同意,专注于少数人利润的强大AI最好的情况是有风险的,最坏的情况是危险的。

当今最突出的AI发展正发生在大型营利性公司内部。AI的巨大经济飞轮意味着只有少数几家大型公司将控制世界上最先进的智能工具,并在私下里做出决定。现有的头部企业越来越大,因为他们已经有大量资金来建设更大的数据中心,大量的可用用户和互联网数据,以及确立已久的用户反馈循环。

现代科技巨头可以灵活地且以比以前的企业更快的速度采用新技术,并为此建立了成熟的框架。每个模型都会针对某些东西进行优化,每个封闭的营利性公司都会自然而然地为利润进行优化。反过来,这些公司构建的模型和系统总是经过优化,目的是以最大化自己的收入,而不是为了实现用户的任何成功指标。

同样的故事在大型科技公司中一次又一次地上演:当用户市场变得如此之大以至于没有那么多新用户可以获取时,利润压力需要寻找新的方法来赚取更多的钱,并从每个现有用户那里获得更多的注意力。这通常会导致对用户的剥削,不是因为这些公司或其员工试图成为恶意的一方,而是因为这就是大型封闭公司的运作方式。

那么我们能做些什么呢?举报人建议的方案是对AI进行更多监管,但我不同意。通常编写法规的人对技术的了解不够,无法跟上技术发展的节奏,因此引入了不合逻辑或无法执行的要求。监管是缓慢和被动的,而不是主动的,扼杀了创新,使初创企业更难竞争和实现市场多元化。仅靠监管无法控制极其强大和复杂的技术,这些技术变化的速度甚至比它的创造者通常意识到的还要快,这往往导致在已经为时已晚而无法阻止负面结果之后责任人才出面请求原谅。

我看到了一个更具建设性的解决方案:我们需要投资于开源的、用户拥有的AI。构建AI构建者,以协作主动管理风险、提高用户安全性以及审计和监控结果。训练模型的所有数据都必须是开源的,以确保没有恶意数据,解开模型固有的潜在偏见,并调试问题(仅共享参数意味着恶意行为或固有偏见会影响所有后续应用程序)。在企业拥有的AI中,关于哪些数据被包含和不被包含在内的决定对用户来说是完全不透明的,而且这些数据可能(也许已经有了,但我希望不是)受制于价高者优先的规则 — — 我们无法确定。开源确保了更多样化的贡献者社区和更广泛的人员基础,他们审查和测试代码,并廉价地验证模型是否确实在规定的数据集上进行训练。

虽然大型科技公司的护城河很难被击败,但我们仍有机会在为时已晚之前引入开源替代方案和更好的框架。

本文编译自外文网站,仅作为科普用途,不构成任何投资建议。编译者/本Medium账户管理人员不对任何信息出现差错或遗漏,以及因使用该信息而获得的结果承担法律责任。

--

--

NEAR中文社区

NEAR是开放网络的基础架构,一个PoS底层公链,致力于把生涩难懂的区块链技术做到人人可用。NEAR 通过高扩展行,与以太坊的互操作性,以及应用层成熟的工具,为开发者和用户提供了简洁友好的使用体验。