美國留學選擇什么專業(yè)好?留學美國熱門專業(yè)推薦
2019-06-26
更新時間:2024-08-07 16:20作者:小樂
虎秀科技集團出品
作者于洋
編輯苗正清
頭圖視覺中國
6月4日消息,斯坦福大學AI團隊輪流研究了國內(nèi)AI明星公司W(wǎng)allface Intelligence的開源產(chǎn)品MiniCPM模型,引發(fā)了HuggingFace社區(qū)網(wǎng)友的廣泛討論。話題主要圍繞斯坦福大學AI團隊涉嫌抄襲的問題。
這并不是中國模式第一次被國外抄襲。不過,這起事件涉及斯坦福大學這樣的知名院校。引起關注的同時,也暴露了人工智能領域的知識產(chǎn)權保護和學術誠信問題。
更值得思考的是,MiniCPM模型為何會引起斯坦福大學的關注?這是否意味著國產(chǎn)大車型“出圈”了?
事件始于斯坦福團隊聲稱可以以不到500 美元(折合人民幣約3650 元)的成本訓練出性能超過GPT-4V 的大型SOTA 多模態(tài)模型。這一公告很快引起了廣泛關注,但不久之后,社區(qū)中開始出現(xiàn)對Llama3-V的質(zhì)疑,指責其抄襲MiniCPM-Llama3-V 2.5的面墻智能。
網(wǎng)友Magic Yang發(fā)現(xiàn)Llama3-V項目有很多與MiniCPM-Llama3-V 2.5類似的內(nèi)容,包括模型結(jié)構(gòu)和配置文件高度相似,但變量名稱不同。
除了社區(qū)網(wǎng)友列出的證據(jù)外,面墻智能團隊的驗證表明,Llama3-V不僅能夠像MiniCPM一樣識別戰(zhàn)國古文字“清華簡”,而且兩個模型甚至能夠識別戰(zhàn)國古文字“清華簡”。犯了同樣的錯誤。這個結(jié)果來自于面壁情報團隊逐字逐句掃描浩瀚的清華大學紙條,然后對數(shù)據(jù)進行一一注釋。經(jīng)過幾個月的努力,它被集成到模型中。這進一步證實了Llama3-V模型的抄襲行為。行為。
MiniCPM模式有何魔力?
今年2月,F(xiàn)acewall Intelligence發(fā)布了20億參數(shù)開源端到端模型MiniCPM。在多個主流評測榜單中,該模型的中英文成績均超過了Mistral-7B開源模型,甚至優(yōu)于Llama 2-13B。
這種名為MiniCPM的開源模式的價值增長點是什么?
3月31日,在虎秀科技集團主辦的“2024人工智能內(nèi)部參與大會”上,面壁智能CTO曾國陽、極客科技副總裁、TGO鯤鵬俱樂部總經(jīng)理楊攀作為嘉賓。與會者曾對開源模型的價值提出疑問,即該模型相對于其他增量模型有什么優(yōu)勢?
在內(nèi)參會上,曾國陽的回答是這樣的:這是一個“更高效的模型”,就是在有限的資源內(nèi)讓模型變得更好。
“如果我們簡單地增加模型參數(shù)的大小,它確實會隨著縮放定律而改善,但它的單維改善是低效的。當我們開發(fā)出更優(yōu)化的方法后,我們實際上可以隨著參數(shù)的擴大而導致模型爆炸增長更加明顯。”曾國陽說。
換句話說,開發(fā)人員可以使用它在固定的資源預算內(nèi)匹配模型的最佳大小,例如額定的GPU 數(shù)量、訓練數(shù)據(jù)量或訓練持續(xù)時間,而無需經(jīng)過昂貴的試錯。這無疑很大程度上提高了研發(fā)效率。我們推測這可能是開源型號Llama3-V被仿冒的原因。
對于此事,面墻智能CEO李大海表示遺憾,并呼吁構(gòu)建開放、合作、信任的社區(qū)環(huán)境。
目前,Llama3-V模型已從Hugging Face等開源平臺下架。在社交媒體上,Llama3-V 團隊的兩位作者Siddharth Sharma 和Aksh Garg 正式向MiniCPM 團隊道歉。
斯坦福大學是世界頂尖的學術機構(gòu)之一。這一事件使其聲譽受到拷打,尤其是在人工智能研究領域。未來對學業(yè)成績的審核肯定會更加嚴格。
因此,面向墻壁的智能是因禍得福。在國際關注度大幅提升的背景下,其商業(yè)價值也在聚光燈下被無限放大,這意味著更多的合作伙伴和投資者。然而,人工智能領域的知識產(chǎn)權保護和學術誠信問題仍然任重而道遠。
該內(nèi)容為作者獨立意見,不代表虎秀立場。禁止任何未經(jīng)許可的復制。授權請聯(lián)系[email protected]
正在改變、想要改變世界的人就在虎秀APP