开源三国之 Gemma:Google 最强开源模型 Gemma 能打吗?AI 黑马将如何改变游戏规则 | 回到Axton

11,377
0
Publicado 2024-03-04
✨ 掌握 AI 时代的必备技能,加入「AI 精英学院」 👉 axtonliu.ai/
▶ 「AI 实战派」Prompt Engineering 提示工程超值早鸟价课程 👉 axtonliu.ai/p/ai
▶ 「AI 自动化」教程 ChatGPT + Make + Zapier + 高效Notion模版 👉 axtonliu.ai/p/autoai

▶ 获取更多 AI 和自动化工作流的前沿资讯,订阅我的Newsletter 👉 axtonliu.com/
🤖 好用GPTs 分享 → www.axtonliu.com/the-world-best-gpt-gpts/

✨ 好用工具推荐:

免费 Notion 账号 → affiliate.notion.so/axton
Notion AI → affiliate.notion.so/axtonliuai
超好用的自动化工具 Make → www.make.com/en/register?pc=axton
超越 Google 的 AI 搜索 → perplexity.ai/pro?referral_code=N57GTJIQ
YouTube 频道必备工具:TubeBuddy → www.tubebuddy.com/axton
高性价比图片视频素材库:Envato → 1.envato.market/axton

视频内容:
==================================
视频中所有链接: www.axtonliu.com/openai-lawsuit-reveals-ai-paradox…

1:21 Gemma 开源家族的两大特色
4:20 两种开箱即用的使用 Gemma 的方式
5:38 三种模型编码对比测试
9:08 两种本地部署 Gemma 的方法
13:16 本地部署开源模型的用途?
==================================

▶ NFT入门 - 简单四步上架销售NFT 系列课程已在Udemy上架:👉 axtonliu.com/nftru-men-jian-dan-4bu-shang-jia-nft

关注我的其他平台获取更多更新:

AI 精英学院:axtonliu.ai/
今日头条: www.toutiao.com/c/user/1187085768461629/
Twitter: twitter.com/AxtonLiu
我的博客: axtonliu.com/

免责声明:
视频仅供娱乐和教育之用。所有信息都是基于互联网的公开资料,请进行独立研究并做

Todos los comentarios (15)
  • @janchangchou777
    Part 1): 任何一條神經網路也是一個多變數廻歸分析,也是統計學迴歸分析的一環。我在40年前攻讀數理統計就涉及這些人工智能及多變量(含時間變量)的廻歸分析(向量/ 矩陣/ 線性代數/ 機率/ 取様….), 以便對一些事件做出精准智能的預測。 所謂自我學習或機器學習也只是用後面收集或模擬出的更新的資料去修正原先迥歸分析的杈重或係數參數而已。 而深度學習也只是處理巨量變數時,為了避免僅用單層機器學習進行巨量變數而需要解大矩陣導致對巨量平行計算的需求,進而變換設計成每層適量變數,建立多層次的機器學習修正。 40 年前人工智慧就是數理統計的一大課題。馬斯克說得一點都沒錯-目前的人工智慧全部建立在數理統計的基礎上。從那時開始就不斷有各行各業的數據分析專業人士來我們數理統計這參與並學習迥歸分析。他們回去後就不斷建立了屬於他們行業內的多條神經網絡(行業內的迥歸模型)。 在那時從事這類研究工作的數理統計的博士生全部被限制在晚上12 時過後才能使用國家級的超級計算機,否則我們兩三𠆤人一上線全部就大當機。我們那時也發展出一套類似挖礦機的方式,利用所有大量閒置的𠆤人電腦來提供其微小的算力,進而整合這些龐大的所謂分散型算力,但受限那時網路的不發達,很難把規模擴大。 近幾十年隨計算機能力不斷提升,目前市面AI 所謂大模型,主要是著力於面對”服務大衆需要”的所謂生成式/ 語言等等的智能協作服務。就是把百行百業各個領域等等數以千萬千億計資料進行迥歸模型的建立及修正(所謂自我深度學習)而形成龐大的神經網絡。 因此也不用太誇大眼下的AI , 這些早在40 年以前都已建構了理論基礎,而智能恊作早在各專業領域都已發展的非常完善,只是因過去算力不足只能在各自專業領域進行中小規模(變量數較少)的神經網絡建構。例如氣象預報就是早期最明顯的利用氣象專用超高速大電腦發展為成熟預測能力(AI)的例子,股票買賣決策也是智能恊作(AI/CIC)的典型。 ”把簡單數學上使用即存的規模資料或電腦模擬資料進行所謂的㢠歸分析/模型建構並藉此模型做可行的智能預判或恊作,包裝成醫學上複雜尚未完全掌握的神經網路的機制及作用原理”,不但瓢竊了數理統計在AI 發展的絕對地位,實在也是在誤導整𠆤AI 的發展。也會造成眼下一般人的過度期待和焦慮。應將AI 改稱作” CIC:Computer Intelligent Collaboration , 電腦智能恊作, 更為恰當。 何謂知識? 由經驗總結後( 抽象具體化) ,就形成知識(用數字分析的表達方式就是去建構知識模型)。 形成知識後就可複製/ 傳承/ 預測/ 擴展。因此目前的AI 發展,就是在循人類文明發展至為重要的其中的一𠆤過程-只是採用了數位化的方式,將經驗知識化了。 目前的AI 只是以數理統計為手段及方法論,以資訊及計算機工程為工具,進行數位型的經驗知識化的過程。 人類有許多其他不同型態非常複雜的知慧,這種僅止於知識數位化的智慧, 其實離人類多型態的智慧還有非常巨大的距離。 另外, 眼下AI 服務於大衆的大模型的各種數學理論及所謂的機器學習(參數修正)及深度學習(參數及變數的多層次增加及修正)。 早在40 年前相應的數學理論都已完備(但落實到實際應用上,如何解1 億 by 1 億的聯立方程組( 行列式計算), 這需要極其龐大的平行計算能力,在那時期是完全不可能的) 。 其實AI 最重要最關鍵的是各行各業各領域的專家組,而不是這些AI 編程的公司( 他們只是依需求用已完善的數學統計理論加以電腦編程後,利用巨大算力去幫忙找出合適的模型並不斷予以完善)。 只有各行各業各領域的專家組才知道在茫茫大海中的資料及訊息中,那些因素才是其所涉領域的関鍵變數,那些變數資料才是可做為他們收集分析建立模型的。例如氣象學/經濟學/股票買賣智能決策/ 醫學/ 藥學/ 農業生產/ 基因工程/ 化學工程/自動駕駛/飛彈防空系統/圖像識別及處理/ 建築結構力學/小樣品模擬模型(核爆/飛機失事)………..等等。 此外服務大衆的語言學也是極度複雜的一門學課,其可能的變量變因會高達幾千萬𠆤, 再加上多層級過濾學習修正的模式,因此其涉及的變數算力就以億計, 所以才稱做大模型。 要取那些因素進行那一層分析,主要都是語言學家在主導。 而這些眼下的AI 應用的公司, 只是利用已發展完備的數學統計理論在不同領域專家組的指導下,去有效的進行數拈收集整理分析並進而建立一個特定領域的模型,作為該特定領域的電腦智能恊作工具。
  • @myboloo1
    本地运行大模型对个人还是有很大意义,首先是私密性,比如有些机密合同不能传给openai去处理啊,然后是免费,对于时间不紧迫的大量计算就很需要,比如翻译整本书,用gpt api可能需要几十元钱,用本地大模型后台跑一天也能完成
  • @pengchengwu447
    为什么要说“依然”,后背发凉啊。。。
  • @user-xh6rq9tb1k
    lm studio 好像科学上网后也不能下载模型,全局模式也不行
  • @wonllyanglee4797
    播主,请教,本地部署大模型,如何建立本地知识库,让大模型从知识库检索内容来回答问题?应用场景是律所。
  • @helbingxxx
    你多测几个例子就会发现,Gemma 7B 相比于 Llama2 13B 和 Mistral 7B,表现实在是差太多了
  • @user-uw7tp5xd7s
    信口开河,这个谷歌的东西连鸡兔同笼的数学题都答不出来,还不如千问