Linux中國

AI 模型的開源定義需要改變

你認為開源許可證應當進行演變嗎?

2023 年,我們以人工智慧(AI)嶄露頭角開始了新的一年,同時也見證了眾多公司全力以赴投身於 AI

比如說 Mozilla,它在 2023 年初制定了 開源 AI 計劃,以開發各種 AI 驅動的解決方案。而 HuggingChat 也成為了第一個推出 ChatGPT 開源替代品 的組織。

即便是 Meta,他們也不例外。他們自家的 大型語言模型 Large Language Model (LLM)Llama 2 項目在這一年都頗受關注,幾個月前他們甚至推出了一款新的 ChatGPT 競爭對手

然而,也有很多人開始 提出質疑,主張 Meta 的 Llama 2 模型並不像人們期望的那樣開放,查看它的開源許可證似乎更是印證了這個觀點

該許可證 不允許擁有超過 7 億日活躍用戶的服務使用 Llama 2,同樣的,它也不能被用於訓練其他的語言模型

這也就意味著 Meta 對於 Llama 2 的許可證 未能滿足 開源倡議組織 Open Source Initiative (OSI)的 開源定義 Open Source Definition (OSD)所列出的 全部要求

人們可以爭辯,像 EleutherAIFalcon 40B 這樣的機構就做出了很好的示範,展示了如何適當地處理 AI 的開源許可。

然而,Meta 對此的看法卻截然不同。

開源許可需要進化

在與 The Verge 的交談中,Meta 人工智慧研究副總裁 Joëlle Pineau 為他們的立場進行了辯解。

她說,我們 需要在信息共享的益處和可能對 Meta 商業造成的潛在成本之間尋找平衡

這種對開源的態度讓他們的研究人員能夠更加專註地處理 AI 項目。她還補充說:

開放的方式從內部改變了我們的科研方法,它促使我們不發布任何不安全的東西,並在一開始就負起責任。

Joëlle 希望他們的生成型 AI 模型能夠和他們過去的 PyTorch 項目一樣受到熱捧。

但是,問題在於現有的許可證機制。她又補充說,這些許可證並不是設計來處理那些需要利用大量多源數據的軟體。

這反過來為開發者和用戶提供了有限責任,以及,對版權侵犯的有限賠償(解釋為:保護)。

此外,她還指出:

AI 模型與軟體不同,涉及的風險更大,因此我認為我們應該對當前用戶許可證進行改變,以更好地適應 AI 模型。

但我並不是一名律師,所以我在此問題上聽從他們的意見。

我贊同她的觀點,我們需要更新現有的許可方案,使之更好地適應 AI 模型,以及其他相關事務。

顯而易見,OSI 正在努力進行此事。OSI 的執行董事 Stefano Maffulli 向 The Verge 透露,他們了解到 當前的 OSI 批准的許可證無法滿足人工智慧模型的需求

他們正在商討如何與 AI 開發者合作,以提供一個 「透明、無許可但安全」 的模型訪問。

他還補充說:

我們肯定需要重新思考許可證的方式,以解決 AI 模型中版權和授權的真正限制,同時仍遵循開源社區的一些原則。

無論未來如何,顯然,開源標準必須推動其演化,以適應新的以及即將出現的技術 ,而此類問題不僅僅局限於 AI。

對於未來幾年開源許可的變革,我充滿期待。

? 對於你來說呢?你認為對於陳舊的開源標準,我們需要進行什麼樣的改變?

(題圖:MJ/e8bae5f6-606b-47db-aaea-c992c0bd143e)

via: https://news.itsfoss.com/open-source-definition-ai/

作者:Sourav Rudra 選題:lujun9972 譯者:ChatGPT 校對:wxy

本文由 LCTT 原創編譯,Linux中國 榮譽推出


本文轉載來自 Linux 中國: https://github.com/Linux-CN/archive

對這篇文章感覺如何?

太棒了
0
不錯
0
愛死了
0
不太好
0
感覺很糟
0
雨落清風。心向陽

    You may also like

    Leave a reply

    您的電子郵箱地址不會被公開。 必填項已用 * 標註

    此站點使用Akismet來減少垃圾評論。了解我們如何處理您的評論數據

    More in:Linux中國