AI 模型的開源定義需要改變
2023 年,我們以人工智慧(AI)嶄露頭角開始了新的一年,同時也見證了眾多公司全力以赴投身於 AI。
比如說 Mozilla,它在 2023 年初制定了 開源 AI 計劃,以開發各種 AI 驅動的解決方案。而 HuggingChat 也成為了第一個推出 ChatGPT 開源替代品 的組織。
即便是 Meta,他們也不例外。他們自家的 大型語言模型 (LLM)Llama 2 項目在這一年都頗受關注,幾個月前他們甚至推出了一款新的 ChatGPT 競爭對手。
然而,也有很多人開始 提出質疑,主張 Meta 的 Llama 2 模型並不像人們期望的那樣開放,查看它的開源許可證似乎更是印證了這個觀點。
該許可證 不允許擁有超過 7 億日活躍用戶的服務使用 Llama 2,同樣的,它也不能被用於訓練其他的語言模型。
這也就意味著 Meta 對於 Llama 2 的許可證 未能滿足 開源倡議組織 (OSI)的 開源定義 (OSD)所列出的 全部要求。
人們可以爭辯,像 EleutherAI 和 Falcon 40B 這樣的機構就做出了很好的示範,展示了如何適當地處理 AI 的開源許可。
然而,Meta 對此的看法卻截然不同。
開源許可需要進化
在與 The Verge 的交談中,Meta 人工智慧研究副總裁 Joëlle Pineau 為他們的立場進行了辯解。
她說,我們 需要在信息共享的益處和可能對 Meta 商業造成的潛在成本之間尋找平衡。
這種對開源的態度讓他們的研究人員能夠更加專註地處理 AI 項目。她還補充說:
開放的方式從內部改變了我們的科研方法,它促使我們不發布任何不安全的東西,並在一開始就負起責任。
Joëlle 希望他們的生成型 AI 模型能夠和他們過去的 PyTorch 項目一樣受到熱捧。
但是,問題在於現有的許可證機制。她又補充說,這些許可證並不是設計來處理那些需要利用大量多源數據的軟體。
這反過來為開發者和用戶提供了有限責任,以及,對版權侵犯的有限賠償(解釋為:保護)。
此外,她還指出:
AI 模型與軟體不同,涉及的風險更大,因此我認為我們應該對當前用戶許可證進行改變,以更好地適應 AI 模型。
但我並不是一名律師,所以我在此問題上聽從他們的意見。
我贊同她的觀點,我們需要更新現有的許可方案,使之更好地適應 AI 模型,以及其他相關事務。
顯而易見,OSI 正在努力進行此事。OSI 的執行董事 Stefano Maffulli 向 The Verge 透露,他們了解到 當前的 OSI 批准的許可證無法滿足人工智慧模型的需求。
他們正在商討如何與 AI 開發者合作,以提供一個 「透明、無許可但安全」 的模型訪問。
他還補充說:
我們肯定需要重新思考許可證的方式,以解決 AI 模型中版權和授權的真正限制,同時仍遵循開源社區的一些原則。
無論未來如何,顯然,開源標準必須推動其演化,以適應新的以及即將出現的技術 ,而此類問題不僅僅局限於 AI。
對於未來幾年開源許可的變革,我充滿期待。
? 對於你來說呢?你認為對於陳舊的開源標準,我們需要進行什麼樣的改變?
(題圖:MJ/e8bae5f6-606b-47db-aaea-c992c0bd143e)
via: https://news.itsfoss.com/open-source-definition-ai/
作者:Sourav Rudra 選題:lujun9972 譯者:ChatGPT 校對:wxy
本文轉載來自 Linux 中國: https://github.com/Linux-CN/archive