大型語(yǔ)言模型

加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論
  • AI的下一個(gè)浪潮?AI for Science或?qū)⒅厮芪磥?lái)
    當(dāng)前,人工智能領(lǐng)域正經(jīng)歷一場(chǎng)深刻的變革。當(dāng)大眾目光聚焦在大語(yǔ)言模型(LLM)所引發(fā)的交互革命,以及它們?cè)谡?、處理和高效呈現(xiàn)人類(lèi)已有知識(shí)方面的卓越能力時(shí),另一股更具顛覆性的力量——以谷歌DeepMind為代表的“AI for Science”正在悄然崛起,并展現(xiàn)出改變科學(xué)研究格局的潛力。
    AI的下一個(gè)浪潮?AI for Science或?qū)⒅厮芪磥?lái)
  • AI算力革命驅(qū)動(dòng)光模塊產(chǎn)業(yè)躍遷:800G規(guī)?;渴鹋c1.6T技術(shù)競(jìng)速下的市場(chǎng)新紀(jì)元
    近年來(lái),AI技術(shù)的爆發(fā)式增長(zhǎng)(如ChatGPT等大模型的普及)驅(qū)動(dòng)了算力需求的激增,進(jìn)而加速了數(shù)據(jù)中心和高速光模塊產(chǎn)業(yè)的發(fā)展。800G光模塊已進(jìn)入規(guī)?;渴痣A段,1.6T產(chǎn)品研發(fā)競(jìng)爭(zhēng)白熱化,同時(shí)電信領(lǐng)域向400G城域網(wǎng)升級(jí),接入網(wǎng)向25G/50G PON演進(jìn)。全球光模塊市場(chǎng)年復(fù)合增長(zhǎng)率預(yù)計(jì)達(dá)16.7%~19.7%,中國(guó)云服務(wù)商對(duì)400G/800G需求激增,1.6T技術(shù)或于2025年商用,標(biāo)志著光通信邁入新紀(jì)元。
    AI算力革命驅(qū)動(dòng)光模塊產(chǎn)業(yè)躍遷:800G規(guī)?;渴鹋c1.6T技術(shù)競(jìng)速下的市場(chǎng)新紀(jì)元
  • 大語(yǔ)言模型是黑洞!AI研究者謹(jǐn)慎繞行!
    日前,楊立昆(Yann LeCun)應(yīng)邀在AMS(美國(guó)數(shù)學(xué)學(xué)會(huì))著名的Josiah Willard Gibbs講座上,進(jìn)行了主題為《通往人類(lèi)水平人工智能的數(shù)學(xué)障礙》的演講。
    大語(yǔ)言模型是黑洞!AI研究者謹(jǐn)慎繞行!
  • RAG檢索不過(guò)關(guān)?試試這些優(yōu)化策略,精準(zhǔn)度飆升!
    近來(lái),RAG成了大語(yǔ)言模型的“救命稻草”,可讓大語(yǔ)言模型回答更準(zhǔn)確、更靠譜??蓡?wèn)題來(lái)了,很多 RAG 應(yīng)用的檢索系統(tǒng)還是有點(diǎn)“笨”:要么漏掉關(guān)鍵信息,要么抓回一堆無(wú)關(guān)緊要的“噪聲”,搞得最終答案質(zhì)量參差不齊。
    RAG檢索不過(guò)關(guān)?試試這些優(yōu)化策略,精準(zhǔn)度飆升!
  • 研華推出GenAI Studio邊緣AI軟件平臺(tái)
    2025年初,全球AIoT平臺(tái)與服務(wù)提供商研華科技宣布推出一款新的軟件產(chǎn)品——GenAI Studio,該產(chǎn)品是研華Edge AI SDK的一部分,主要目標(biāo)是為了滿足對(duì)成本效益高、本地部署的大語(yǔ)言模型(LLM)解決方案日益增長(zhǎng)的需求。 加速人工智能發(fā)展,應(yīng)對(duì)行業(yè)挑戰(zhàn) 作為研華邊緣AI軟件開(kāi)發(fā)工具包(Edge AI SDK)的一部分,GenAI Studio致力于解決行業(yè)痛點(diǎn),例如縮短工廠操作員等待
    研華推出GenAI Studio邊緣AI軟件平臺(tái)
  • 探索基于Qwen2.5實(shí)現(xiàn)DeepSeek推理的奇妙之旅
    作為一名互聯(lián)網(wǎng)技術(shù)愛(ài)好者,我一直對(duì)大型語(yǔ)言模型和高效推理技術(shù)充滿熱情。本文基于基于Qwen2.5實(shí)現(xiàn)DeepSeek推理功能。
    探索基于Qwen2.5實(shí)現(xiàn)DeepSeek推理的奇妙之旅
  • 研報(bào) | 機(jī)器人大語(yǔ)言模型市場(chǎng)規(guī)模預(yù)估于2028年破千億美元,英偉達(dá)WFM平臺(tái)或成主要驅(qū)動(dòng)力
    根據(jù)TrendForce集邦咨詢最新研究,隨著人形機(jī)器人邁向高度系統(tǒng)整合,并有望從工業(yè)場(chǎng)景走進(jìn)家庭生活,前端的AI模型訓(xùn)練將更為關(guān)鍵,以滿足更多后端理解與互動(dòng)需求。預(yù)估含AI訓(xùn)練、AIGC解決方案在內(nèi)的全球機(jī)器人大型語(yǔ)言模型(機(jī)器人LLM)市場(chǎng),有望于2028年超越1,000億美元,且從2025至2028年之年復(fù)合成長(zhǎng)率將達(dá)48.2%。
    研報(bào) | 機(jī)器人大語(yǔ)言模型市場(chǎng)規(guī)模預(yù)估于2028年破千億美元,英偉達(dá)WFM平臺(tái)或成主要驅(qū)動(dòng)力
  • 研華本地大型語(yǔ)言模型(LLM)邊緣AI服務(wù)器AIR-520 榮獲第33屆“臺(tái)灣精品獎(jiǎng)”銀獎(jiǎng)
    工業(yè)物聯(lián)網(wǎng)領(lǐng)域的全球供應(yīng)商研華科技近日公布,其自主研發(fā)的“AIR-520本地大型語(yǔ)言模型(LLM)邊緣AI服務(wù)器”榮獲“第33屆臺(tái)灣精品獎(jiǎng)”銀獎(jiǎng)! 今年,研華有六款產(chǎn)品獲得了中國(guó)臺(tái)灣精品獎(jiǎng),其中兩款獲得了享有盛譽(yù)的銀獎(jiǎng)。這一出色的成績(jī)凸顯了業(yè)界對(duì)研華智能系統(tǒng)和嵌入式平臺(tái)在工業(yè)物聯(lián)網(wǎng)領(lǐng)域的認(rèn)可。研華表示將繼續(xù)整合人工智能驅(qū)動(dòng)的行業(yè)解決方案和領(lǐng)域?qū)I(yè)知識(shí),加速數(shù)字化轉(zhuǎn)型,為客戶推動(dòng)工業(yè)智能的發(fā)展。 研
    研華本地大型語(yǔ)言模型(LLM)邊緣AI服務(wù)器AIR-520 榮獲第33屆“臺(tái)灣精品獎(jiǎng)”銀獎(jiǎng)
  • 產(chǎn)業(yè)丨LiveBench榜單比拼,階躍星辰成為國(guó)內(nèi)大模型第一
    目前生成式AI產(chǎn)業(yè)尚處于發(fā)展的初期階段。中國(guó)工程院院士、北京大學(xué)博雅講席教授高文指出,如果將人工智能的發(fā)展與人類(lèi)成長(zhǎng)相類(lèi)比,那么通用人工智能目前可能僅處于蹣跚學(xué)步的幼兒階段。但從應(yīng)用的角度來(lái)看,人工智能已經(jīng)能夠解決生產(chǎn)、社會(huì)及服務(wù)領(lǐng)域的問(wèn)題,因此可以先行投入使用,無(wú)需等待其達(dá)到完美狀態(tài)。
    產(chǎn)業(yè)丨LiveBench榜單比拼,階躍星辰成為國(guó)內(nèi)大模型第一
  • 職場(chǎng)人必備丨AI術(shù)語(yǔ)小詞典(7)
    接著上一期的AI術(shù)語(yǔ)小詞典,文檔君又如期而至,來(lái)給大家科普啦~推斷是機(jī)器學(xué)習(xí)模型在訓(xùn)練后對(duì)新數(shù)據(jù)進(jìn)行預(yù)測(cè)或分類(lèi)的過(guò)程。在推斷階段,模型會(huì)使用在訓(xùn)練階段學(xué)習(xí)到的參數(shù)和規(guī)則,對(duì)輸入數(shù)據(jù)進(jìn)行計(jì)算和分析,然后輸出預(yù)測(cè)結(jié)果。推斷通常發(fā)生在模型部署后,用于處理實(shí)際應(yīng)用中的數(shù)據(jù)。推斷的性能和準(zhǔn)確性是衡量模型好壞的重要指標(biāo)之一。
    職場(chǎng)人必備丨AI術(shù)語(yǔ)小詞典(7)
  • 大模型已基本解決幻覺(jué)問(wèn)題?
    你是否經(jīng)歷過(guò)大語(yǔ)言模型一本正經(jīng)“胡說(shuō)八道”?大模型在發(fā)展初期的幻覺(jué)問(wèn)題尤為嚴(yán)重,所回答問(wèn)題基本屬于“已讀亂回”,至于哪家企業(yè)的大模型不在本文探討之列,大家心知肚明,更重要的是大語(yǔ)言模型的幻覺(jué)問(wèn)題有了最新進(jìn)展。其實(shí)大語(yǔ)言模型發(fā)展到今天,面臨的不止“幻覺(jué)”這一個(gè)挑戰(zhàn),如未來(lái)隨著數(shù)據(jù)量的巨增,必須要進(jìn)行模型壓縮與優(yōu)化;多模態(tài)模型與大語(yǔ)言模型的結(jié)合,將自然語(yǔ)言處理與計(jì)算機(jī)視覺(jué)、語(yǔ)音處理等多模態(tài)信息相結(jié)合,擴(kuò)大應(yīng)用場(chǎng)景。
    大模型已基本解決幻覺(jué)問(wèn)題?
  • 2024AI+研發(fā)數(shù)字(AiDD)峰會(huì)深圳站圓滿收官!
    11月8-9日,為期兩天的AI+研發(fā)數(shù)字(AiDD)峰會(huì)在深圳灣萬(wàn)麗酒店圓滿收官!本屆峰會(huì)由AiDD峰會(huì)組委會(huì)和深圳市軟件行業(yè)協(xié)會(huì)聯(lián)合主辦,承辦單位為國(guó)內(nèi)領(lǐng)先的專(zhuān)業(yè)數(shù)字人才發(fā)展平臺(tái)中智凱靈。 本屆峰會(huì)以“AI驅(qū)動(dòng)研發(fā)變革,助力企業(yè)降本增效”為主題。邀請(qǐng)了來(lái)自百度、阿里、騰訊、華為、網(wǎng)易、360、字節(jié)跳動(dòng)、快手、微軟、去哪兒、中興、等頭部互聯(lián)網(wǎng)企業(yè),以及各大高校的一線從業(yè)者和技術(shù)專(zhuān)家?guī)?lái)最前沿的主題
  • 曝OpenAI新旗艦?zāi)P汀半y產(chǎn)”,或明年年初發(fā)布
    11月11日消息,據(jù)The Information報(bào)道,OpenAI的GPT系列模型改進(jìn)速度放緩,公司正調(diào)整策略以應(yīng)對(duì)這一挑戰(zhàn)。據(jù)OpenAI員工透露,下一代旗艦?zāi)P蚈rion已完成約20%的訓(xùn)練。Orion在語(yǔ)言任務(wù)上表現(xiàn)出色,但在編碼等方面未超越GPT-4,且運(yùn)行成本偏高,提升幅度低于預(yù)期。此外,Orion在明年年初發(fā)布時(shí),可能不會(huì)沿用傳統(tǒng)的“GPT”命名規(guī)則,而是采用新的命名方式。
    曝OpenAI新旗艦?zāi)P汀半y產(chǎn)”,或明年年初發(fā)布
  • 大語(yǔ)言模型上車(chē)后,你的車(chē)機(jī)真的好用了嗎?
    去年號(hào)稱(chēng)大模型技術(shù)元年,智能座艙的演進(jìn)進(jìn)入了新階段:大語(yǔ)言模型上車(chē)。智能座艙通過(guò)運(yùn)用大模型,將提供千人千面的語(yǔ)音識(shí)別、娛樂(lè)信息,以及駕駛輔助的個(gè)性化定制服務(wù),讓座艙具有了深度進(jìn)化的能力。
    大語(yǔ)言模型上車(chē)后,你的車(chē)機(jī)真的好用了嗎?
  • 如果強(qiáng)化學(xué)習(xí)是問(wèn)題,大模型是否是「答案」?
    “強(qiáng)化學(xué)習(xí)讓大模型具有了思考能力,大模型為強(qiáng)化學(xué)習(xí)提供了更開(kāi)闊的思路。”? 在當(dāng)今大模型推動(dòng)的新一波人工智能的快速發(fā)展浪潮中,大模型和強(qiáng)化學(xué)習(xí)技術(shù)的結(jié)合成為研究和產(chǎn)業(yè)界的焦點(diǎn)。尤其最近OpenAI最新模型o1的發(fā)布,強(qiáng)化學(xué)習(xí)成為o1的靈魂,更是印證了強(qiáng)化學(xué)習(xí)的潛力。大模型憑借其強(qiáng)大的數(shù)據(jù)處理能力,為強(qiáng)化學(xué)習(xí)提供了豐富的知識(shí)。這種結(jié)合不僅極大地?cái)U(kuò)展了人工智能在處理復(fù)雜問(wèn)題上的能力,也為強(qiáng)化學(xué)習(xí)帶來(lái)了更深層次的洞察力和更高效的決策過(guò)程。
    如果強(qiáng)化學(xué)習(xí)是問(wèn)題,大模型是否是「答案」?
  • 大模型應(yīng)用開(kāi)發(fā)-走進(jìn)大模型應(yīng)用
    在人工智能的浩瀚星空中,大模型就像是那顆閃耀的北極星,不僅指引著科技的發(fā)展方向,也照亮了我們對(duì)未來(lái)的無(wú)限暢想。
    大模型應(yīng)用開(kāi)發(fā)-走進(jìn)大模型應(yīng)用
  • 小模型“反卷”大模型?適用才是真王道!
    隨著“千模大戰(zhàn)”接近尾聲,由大模型掀起的算力競(jìng)賽也逐漸進(jìn)入“下半場(chǎng)”,由“建算力”過(guò)渡到“用算力”上。不同于大模型的參數(shù)量大、成本高、部署復(fù)雜,以“小而美”著稱(chēng)的小模型為行業(yè)提供了新選擇。
    小模型“反卷”大模型?適用才是真王道!
  • 一文搞懂大語(yǔ)言模型的發(fā)展歷程和未來(lái)應(yīng)用場(chǎng)景!
    “IT有得聊”是機(jī)械工業(yè)出版社旗下IT專(zhuān)業(yè)資訊和服務(wù)平臺(tái),致力于幫助讀者在廣義的IT領(lǐng)域里,掌握更專(zhuān)業(yè)、更實(shí)用的知識(shí)與技能,快速提升職場(chǎng)競(jìng)爭(zhēng)力。點(diǎn)擊藍(lán)色微信名可快速關(guān)注我們!
    一文搞懂大語(yǔ)言模型的發(fā)展歷程和未來(lái)應(yīng)用場(chǎng)景!
  • 艾體寶洞察丨透過(guò)語(yǔ)義緩存,實(shí)現(xiàn)更快、更智能的LLM應(yīng)用程序
    本文探討了語(yǔ)義緩存在提升大型語(yǔ)言模型(LLM)應(yīng)用程序性能中的關(guān)鍵作用。與傳統(tǒng)緩存不同,語(yǔ)義緩存理解用戶查詢背后的語(yǔ)義,提供更快、更相關(guān)的響應(yīng)。這種技術(shù)通過(guò)嵌入模型、矢量搜索等組件,顯著提高了自動(dòng)化客戶支持、實(shí)時(shí)翻譯等應(yīng)用的效率,為企業(yè)優(yōu)化操作和提升用戶體驗(yàn)提供了新路徑。
  • 大語(yǔ)言模型有什么用途?
    大語(yǔ)言模型能夠識(shí)別、總結(jié)、翻譯、預(yù)測(cè)和生成文本及其它形式的內(nèi)容。AI 應(yīng)用正在被應(yīng)用于總結(jié)文章、撰寫(xiě)故事和進(jìn)行長(zhǎng)對(duì)話,而大語(yǔ)言模型在其中發(fā)揮了重要作用。大語(yǔ)言模型(LLM)是一種深度學(xué)習(xí)算法,能夠基于從海量數(shù)據(jù)集中獲得的知識(shí),識(shí)別、總結(jié)、翻譯、預(yù)測(cè)和生成文本以及其它形式的內(nèi)容。
    大語(yǔ)言模型有什么用途?

正在努力加載...