首頁|必讀|視頻|專訪|運(yùn)營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 互聯(lián)網(wǎng) >> 正文

場景為先,國內(nèi)首個教育大模型“子曰”攜六大創(chuàng)新應(yīng)用成果重磅發(fā)布

2023年7月26日 20:12  CCTIME飛象網(wǎng)  

飛象網(wǎng)訊 7月26日,教育科技公司網(wǎng)易有道(NYSE: DAO)舉辦了“powered by 子曰”教育大模型應(yīng)用成果發(fā)布會。會上重磅推出了國內(nèi)首個教育領(lǐng)域垂直大模型“子曰”,并發(fā)布了基于“子曰”大模型研發(fā)的六大創(chuàng)新應(yīng)用——“LLM翻譯”、“虛擬人口語教練”、“AI作文指導(dǎo)”、“語法精講”、“AI Box”以及“文檔問答”。

“一個好的技術(shù)有沒有價值、能不能發(fā)揮巨大的作用,很多時候關(guān)鍵在場景和應(yīng)用的選擇以及細(xì)節(jié)的打磨。通過軟件、硬件、AI技術(shù)的結(jié)合,做出精品是我們現(xiàn)在做的事”。發(fā)布會現(xiàn)場,網(wǎng)易有道CEO周楓多次強(qiáng)調(diào)“場景拉動”的重要性。他表示,“子曰”大模型在教育行業(yè)的應(yīng)用,不僅可以幫助學(xué)生更好地學(xué)習(xí),也可以幫助老師更好地教學(xué),借此實現(xiàn)因材施教的教育理想。

國內(nèi)首個教育大模型“子曰” :引領(lǐng)教育個性化革命

作為國內(nèi)領(lǐng)先的教育科技公司,網(wǎng)易有道深刻地認(rèn)識到AI大模型正在為各行各業(yè)帶來新的可能,并將顛覆性地改變教育的面貌。

大模型的出現(xiàn)能給教育帶來的最大機(jī)會是什么?

周楓在發(fā)布會上表示:“我認(rèn)為,是助力因材施教”。據(jù)介紹,之所以叫‘子曰’,是因為孔子是我國的教育先賢,又是因材施教教育理念的奠基者!蜃咏倘,各因其材’,我們希望子曰大模型可以朝著這樣的教育理想去做。”

周楓向在場觀眾分享了大模型“因材施教”的三大優(yōu)勢。首先,大模型能為學(xué)生提供個性化的分析和指導(dǎo);其次,大模型能夠?qū)崿F(xiàn)引導(dǎo)式學(xué)習(xí),與教師一樣,提出問題并引導(dǎo)學(xué)生自行探索答案;最后,大模型具備全科知識整合能力。通過連接多模態(tài)知識庫、跨學(xué)科整合知識內(nèi)容,大模型能隨時滿足學(xué)生的動態(tài)需求,幫助孩子培養(yǎng)更綜合的能力。

相比于通用大模型,“子曰”大模型從一開始就定位為是一個“場景為先”的教育垂類大模型。它能夠作為基座模型支持諸多下游任務(wù),向所有下游場景提供語義理解、知識表達(dá)等基礎(chǔ)能力;诖,有道研發(fā)團(tuán)隊在“子曰”大模型的基礎(chǔ)上,為不同學(xué)習(xí)場景設(shè)計了定制化的模型,以實現(xiàn)模型與場景的高度契合。

“我們的目標(biāo)很明確,就是以實際的教育場景驅(qū)動,用技術(shù)創(chuàng)新助力教育創(chuàng)新!敝軛鞅硎,希望技術(shù)和產(chǎn)品的深度融合,可以根據(jù)學(xué)⽣不同能⼒和需求,提供因人而異的個性化教學(xué)。

六大創(chuàng)新成果發(fā)布,虛擬人口語教練驚艷現(xiàn)場

在發(fā)布會上,網(wǎng)易有道展示了“子曰”大模型在多個場景中的應(yīng)用成果,覆蓋口語訓(xùn)練、作文批改、習(xí)題答疑等六大教育的細(xì)分領(lǐng)域,充分展現(xiàn)了“子曰”大模型在自然語言處理領(lǐng)域的技術(shù)實力和教育領(lǐng)域的廣泛應(yīng)用前景。

最為矚目的便是大模型時代的英語口語練習(xí)神器——虛擬人口語教練Hi Echo。

發(fā)布會現(xiàn)場,有道詞典業(yè)務(wù)負(fù)責(zé)人與 Echo 進(jìn)行了多組隨機(jī)對話。Echo 能迅速理解場景和上下文,并給出迅速反饋。她的面部表情和口型生動而自然,發(fā)音也非常地道,重音、弱讀、升降調(diào)等細(xì)節(jié)處理得非常到位,現(xiàn)場觀眾紛紛贊嘆。

在對話過程中,Echo能夠像真人老師一樣循循善誘,啟發(fā)式進(jìn)行對話引導(dǎo),還能進(jìn)行實時反饋。對話結(jié)束后,Echo會從發(fā)音、語法等維度給予建議和潤色,能有效解決長期困擾英語口語學(xué)習(xí)者無話可說、不知從何說起、害怕說錯等問題。

“中國人在說英語時往往面臨開口難、不敢說、不知道該從何說起的困境,其中的關(guān)鍵就在于缺乏語言環(huán)境! 有道詞典業(yè)務(wù)負(fù)責(zé)人表示,Echo恰恰能為用戶帶來這種真正貼合實際的“語境”,幫助他們更好地練習(xí)英語口語。

場景驅(qū)動、技術(shù)賦能,有道不僅關(guān)注用戶在英語學(xué)習(xí)中“不敢開口說英語”的痛點(diǎn),還覆蓋了多種學(xué)習(xí)場景,借助“子曰”大模型的支持為用戶提供多種高效學(xué)習(xí)方案。

例如,在寫英語作業(yè)時,學(xué)生們不僅有解決具體問題的需求,還需要學(xué)會舉一反三。 “子曰”大模型賦能的“語法精講”功能可以為學(xué)生提供針對性的解題思路和方法,還能推薦同類型的考題,幫助學(xué)生觸類旁通,真正理解考綱中的考點(diǎn)。

此外,有道在發(fā)布會上推出的“AI作文指導(dǎo)”應(yīng)用不僅具備“作文批改”功能,還具備“作文指導(dǎo)”功能。據(jù)介紹,該應(yīng)用旨在解決“學(xué)生不會寫”和“老師沒時間改”的問題。針對學(xué)生在寫作、前、中后過程中面臨的題目主旨難確定、寫作素材匱乏等難題,該應(yīng)用都能夠給予指導(dǎo),幫助學(xué)生“下筆如有神”。批改環(huán)節(jié)中,AI作文指導(dǎo)還會從表達(dá)、結(jié)構(gòu)、內(nèi)容深度、情感豐富度四大維度全面提供改進(jìn)建議。

場景拉動,“AI+教育”技術(shù)沉淀與創(chuàng)新

不難發(fā)現(xiàn),網(wǎng)易有道在策略上的關(guān)鍵詞是“場景拉動”——依托在智能學(xué)習(xí)領(lǐng)域的深耕,積累了很多教育領(lǐng)域的業(yè)務(wù)數(shù)據(jù)和理解。通過深入調(diào)研和分析用戶在不同場景下的需求,網(wǎng)易有道成功利用大模型的力量,在教育領(lǐng)域打造了諸如虛擬人口語教練、語法精講、AI 寫作指導(dǎo)等豐富的解決方案。這一策略不僅體現(xiàn)了網(wǎng)易有道對教育場景的深入理解,還為用戶提供了更加個性化和高效的學(xué)習(xí)體驗。

為什么有道能做成教育行業(yè)首個垂直大模型,成為國內(nèi)率先將AIGC技術(shù)落地到教育場景內(nèi)的企業(yè)?高光的背后,是多年來的技術(shù)積累與產(chǎn)品布局。

早在2008年,有道就推出自主研發(fā)的國內(nèi)首家統(tǒng)計機(jī)器翻譯線上引擎。經(jīng)過15年技術(shù)迭代,有道神經(jīng)網(wǎng)絡(luò)翻譯(NMT)已經(jīng)進(jìn)化成行業(yè)領(lǐng)先的“最強(qiáng)大腦”。根據(jù)QUESTMOBILE最新數(shù)據(jù),到目前有道詞典月活用戶已經(jīng)超過1億,是國內(nèi)詞典翻譯市場的第一名。

從2016年開始,有道協(xié)同構(gòu)建AI基礎(chǔ)能力,同步組建語言、視覺、聲音等團(tuán)隊,目前積累了有道神經(jīng)網(wǎng)絡(luò)翻譯(NMT)、計算機(jī)視覺、智能語音AI技術(shù)、高性能計算(HPC)四大底層技術(shù)能力。

自2017年,有道就與主流技術(shù)Transformer“雙向奔赴”,將AI能力統(tǒng)一在大模型之下,并尤其重視在端側(cè)的落地應(yīng)用。有道詞典筆2代2019年首次搭載離線Transformer NMT。2022年,有道詞典筆P5中搭載了自研的離線ASR,也已升級為Transformer技術(shù)。技術(shù)的持續(xù)賦能奠定了有道學(xué)習(xí)硬件在行業(yè)內(nèi)的領(lǐng)先地位。

底層技術(shù)不斷革新的同時,有道還在不斷研發(fā)細(xì)分場景下的“黑科技”。如虛擬人口語教練實現(xiàn)語音識別能力、虛擬人驅(qū)動技術(shù)和內(nèi)容生成和對話能力等多項技術(shù)能力的突破。

例如,虛擬人口語教練在語音識別能力方面進(jìn)行了巨大的革新,它支持多語種的流式低延遲語音識別技術(shù),讓Echo在中式英語、英語、中英混合等場景下游刃有余;聲學(xué)降噪、回聲消除、自動語音檢測、自動斷句等技術(shù),則讓它像一個真正的傾聽者和交流者,不僅能判斷用戶說話的起始,還能讓用戶隨時打斷,智能觸發(fā)后續(xù)流程。

在AI虛擬人的驅(qū)動方面,有道基于自主研發(fā)的情感識別算法和實時渲染驅(qū)動引擎,對播放的語音數(shù)據(jù)進(jìn)行深度分析,實時驅(qū)動虛擬人的面部表情和語音同步的口型變化,使虛擬人能夠貼近真人,以更加自然和生動的方式與用戶一對一交互,從而顯著提升對話的真實感和用戶體驗。

在當(dāng)下大模型浪潮中,網(wǎng)易有道憑借其對教育場景的深入理解和對商業(yè)化的理性思考,為行業(yè)樹立了垂直大模型的典范。

編 輯:孫秀杰
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構(gòu)成任何投資及應(yīng)用建議。如網(wǎng)站內(nèi)容涉及作品版權(quán)和其它問題,請在30日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時間刪除內(nèi)容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
工信部張云明:大部分國家新劃分了中頻段6G頻譜資源
精彩專題
專題丨“汛”速出動 共筑信息保障堤壩
2023MWC上海世界移動通信大會
中國5G商用四周年
2023年中國國際信息通信展覽會
CCTIME推薦
關(guān)于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像