狠狠干中文字幕I欧美精品久久久久久久久久I伊人色爱Iа√天堂中文I少妇久久久久久久久I18成人在线Iav另类少妇I亚洲小少妇裸体bbwI最新日韩av在线I色射视频I亚洲字幕av一区二区三区四区I免费成人黄色I99精品国产成人一区二区

首頁
核心技術(shù)
產(chǎn)品體系
解決方案
動態(tài)資訊
關(guān)于我們
搜索
首頁 動態(tài)資訊 公司新聞

易道博識康鐵鋼:從“能用”到“好用”,二次訓(xùn)練是大模型滿足OCR生產(chǎn)需求的關(guān)鍵

來源:易道博識 發(fā)布時間:2025-09-12


我們經(jīng)常聽到客戶問如下問題原生開源大模型就能OCR識別為什么要采購博識二次訓(xùn)練的OCR大模型,價值在哪

事實(shí)上,在未經(jīng)調(diào)優(yōu)的情況下,直接將原生大模型用于OCR識別,很難滿足生產(chǎn)要求。


大模型OCR的技術(shù)路徑與固有局限


大模型實(shí)現(xiàn)OCR功能主要通過兩種技術(shù)路徑,兩者在架構(gòu)上決定了其在實(shí)際應(yīng)用中的固有局限。


丨常見技術(shù)路徑


OCR小模型 + 大語言模型 此方案將任務(wù)分為兩步。首先,由輕量級OCR小模型負(fù)責(zé)從圖像中識別和提取原始文本;然后,由大語言模型對文本進(jìn)行結(jié)構(gòu)化信息提取。

多模態(tài)大模型多模態(tài)大模型是“圖像輸入→文本輸出” 的端到端解決方案。模型通過統(tǒng)一的架構(gòu)直接理解圖像中的視覺特征(如文字、布局)和語義信息,一步完成識別與信息提取。





丨原生大模型固有局限分析

當(dāng)原生大模型在應(yīng)用于專業(yè)的OCR任務(wù)時,暴露出以下局限:

1、識別準(zhǔn)確率不足

 字符識別:在手寫體、印刷質(zhì)量不佳或存在生僻字的情況下,識別錯誤率較高。

 表格識別:對于包含合并單元格或復(fù)雜排版的表格,結(jié)構(gòu)識別和內(nèi)容提取的準(zhǔn)確率會大幅下降。

 數(shù)據(jù)提取:當(dāng)文檔中缺少明確的關(guān)鍵字作為定位錨點(diǎn)時,模型提取特定字段的準(zhǔn)確性顯著降低。

 版式兼容性:在企業(yè)的財務(wù)流程中,發(fā)票、銀行回單、結(jié)算憑證等套打文檔無處不在,然而,一旦打印過程出現(xiàn)物理偏移例如,發(fā)票上的關(guān)鍵字段“金額”或“收款人”未能精確打印在預(yù)設(shè)的表格框線內(nèi)模型便難以識別。





2、存在幻覺

 “幻覺”是指模型生成了與圖像實(shí)際內(nèi)容不符但看似合理的結(jié)果。

 語義覆蓋內(nèi)容:當(dāng)圖像文字模糊時,模型可能依據(jù)上下文“腦補(bǔ)”出錯誤但符合邏輯的內(nèi)容。例如,將模糊的金額“198”識別為更常見的“199”。

 無中生有:對于圖像中本應(yīng)為空白的字段,模型可能會強(qiáng)制生成內(nèi)容。

 長文本連貫性幻覺:對于長段落文本(如書籍掃描頁),大模型為保證輸出文本的連貫性,可能對個別識別模糊的詞進(jìn)行 “合理化修正”,導(dǎo)致局部文本與原圖不符。

3、識別結(jié)果無法溯源

原生大模型在識別文本后,通常不提供其在原始圖像中的具體坐標(biāo)位置,導(dǎo)致識別結(jié)果無法溯源。

這一局限在實(shí)際應(yīng)用中會帶來兩類關(guān)鍵問題:

操作層面,當(dāng)識別結(jié)果出錯時,用戶無法快速定位原文進(jìn)行人工校對;

合規(guī)層面,尤其在金融、醫(yī)療等監(jiān)管嚴(yán)格的領(lǐng)域,審計要求OCR結(jié)果必須與原始憑證的原文精確對應(yīng),因此,缺乏坐標(biāo)溯源能力的技術(shù)無法滿足其合規(guī)標(biāo)準(zhǔn)。

4、精度與成本難平衡

模型精度與其參數(shù)規(guī)模正相關(guān)。千億級參數(shù)的大模型能達(dá)到更高的識別精度,但其推理計算必須依賴A100/H100級別的高端GPU,這使得硬件部署成本十分高昂。

反之,如果為了控制成本而采用參數(shù)裁剪或量化壓縮后的輕量化模型,會導(dǎo)致跨模態(tài)注意力機(jī)制、視覺特征編碼能力受損,OCR 精度大幅下降。例如,某多模態(tài)模型的 7B 參數(shù)版本在表格識別任務(wù)中的準(zhǔn)確率比 130B 版本低 20% 以上。


基于專業(yè)OCR數(shù)據(jù)的模型調(diào)優(yōu)


為克服原生大模型的局限,博識采用“選擇模型與評測短板 - 定向訓(xùn)練 - 驗(yàn)證效果”的閉環(huán)流程,對基礎(chǔ)大模型進(jìn)行二次訓(xùn)練與調(diào)優(yōu)。


1. 選擇與評測基礎(chǔ)模型 首先,根據(jù)任務(wù)需求(如場景、語言、精度要求)選擇一個基礎(chǔ)大模型。在調(diào)優(yōu)前,對其OCR能力進(jìn)行全面評測,包括在印刷體、手寫體、不同噪聲背景下的文本識別準(zhǔn)確率,以及表格識別和上下文理解能力,從而定位其具體短板為后續(xù)訓(xùn)練數(shù)據(jù)的篩選和調(diào)優(yōu)策略(如重點(diǎn)強(qiáng)化手寫體數(shù)據(jù)的訓(xùn)練)提供指導(dǎo)。

2. 定向數(shù)據(jù)訓(xùn)練: 基于評測結(jié)果,構(gòu)建針對性的訓(xùn)練數(shù)據(jù)集。簡單來說,大模型在哪方面能力偏差,就要相應(yīng)的增加相關(guān)訓(xùn)練數(shù)據(jù)。




例如,若模型對手寫體識別能力較弱,則在訓(xùn)練數(shù)據(jù)中增加手寫樣本的比例。我們使用海量經(jīng)過專業(yè)標(biāo)注的OCR數(shù)據(jù),覆蓋印刷體、手寫體、各類表格及結(jié)構(gòu)化文檔,對基礎(chǔ)大模型進(jìn)行二次訓(xùn)練,以增強(qiáng)其在特定任務(wù)上的特征學(xué)習(xí)能力。

3. 評估與驗(yàn)證: 訓(xùn)練完成后,在獨(dú)立的測試集上對調(diào)優(yōu)后模型的各項性能指標(biāo)進(jìn)行重新評估,以驗(yàn)證其相較于原生模型的提升,最終實(shí)現(xiàn)高精度、高魯棒性的 OCR 應(yīng)用。


調(diào)優(yōu)后模型的性能表現(xiàn)


通過二次訓(xùn)練,模型在準(zhǔn)確率、速度和功能完備性上均獲得了顯著提升。最為重要的是,基于相對輕量化的大模型,經(jīng)過二次訓(xùn)練,其OCR綜合能力要遠(yuǎn)好于更大參數(shù)規(guī)模的原生大模型,


丨準(zhǔn)確率:30億參數(shù)模型優(yōu)于720億參數(shù)模型

評測結(jié)果顯示,一個30億參數(shù)的多模態(tài)大模型經(jīng)過二次訓(xùn)練后,其在多種真實(shí)業(yè)務(wù)票據(jù)上的端到端識別準(zhǔn)確率,不僅高于70億參數(shù)的原生模型,甚至全面優(yōu)于720億參數(shù)的原生模型。





丨速度:處理速度提升6.63倍

在相同的A100(80G)硬件環(huán)境下,處理同等復(fù)雜度的增值稅發(fā)票,720億參數(shù)的Qwen模型平均耗時21.43秒,而調(diào)優(yōu)后的30億參數(shù)模型僅需3.23秒,處理速度為前者的6.63倍


此外,通過并行任務(wù)設(shè)計和工程上的優(yōu)化,進(jìn)一步加速了大模型推理:在信息抽取任務(wù)上,將實(shí)體抽取、表格抽取任務(wù)拆開并行計算,理論速度可再提升最高100%


丨功能:支持文本位置輸出,實(shí)現(xiàn)結(jié)果溯源

與原生大模型不同,經(jīng)過二次訓(xùn)練的模型支持輸出每個識別字段在原始圖像中的精確坐標(biāo)。這一功能解決了結(jié)果無法溯源的問題,滿足了業(yè)務(wù)核驗(yàn)與合規(guī)審計的需求。






面向?qū)嶋H應(yīng)用的大模型工程化部署


為降低大模型在業(yè)務(wù)系統(tǒng)中的使用門檻,我們進(jìn)行了兩項關(guān)鍵的工程化改造。


丨接口封裝:簡化調(diào)用流程

大模型與普通 OCR 接口在輸入輸出邏輯上存在顯著差異:


傳統(tǒng) OCR 接口采用 "圖像→結(jié)構(gòu)化數(shù)據(jù)" 的固定模式,通常僅接收圖像輸入,輸出包含文字內(nèi)容及位置信息的 JSON 格式數(shù)據(jù)。

原生大模型采用“圖像+提示詞”的協(xié)同輸入模式,其優(yōu)勢在于能進(jìn)行深度語義理解,實(shí)現(xiàn)更精準(zhǔn)的信息提取。

然而,這一模式也帶來了兩個問題:一是要求用戶具備為不同文檔設(shè)計提示詞的能力,二是其流式輸出與標(biāo)準(zhǔn)的JSON格式不兼容,這都顯著增加了非專業(yè)用戶的使用門檻。





為此博識通過工程化手段,將復(fù)雜的調(diào)用邏輯封裝成標(biāo)準(zhǔn)API。用戶只需提供圖像和待提取的字段列表,系統(tǒng)即可自動構(gòu)建提示詞并返回結(jié)構(gòu)化的JSON結(jié)果,其使用體驗(yàn)與傳統(tǒng)OCR接口一致。

由于用戶無需自行定義復(fù)雜的提示詞,也無需處理復(fù)雜的和大模型的交互過程,因而接口更加方便易用。


丨統(tǒng)一架構(gòu):大小模型融合

從當(dāng)前技術(shù)實(shí)踐來看,大模型更多是對小模型的有益補(bǔ)充,而非全然替代。二者的深度融合,才是現(xiàn)階段應(yīng)對復(fù)雜場景的最優(yōu)解。


需要注意的是,原生狀態(tài)下的大模型與小模型往往難以實(shí)現(xiàn)深度協(xié)同 。傳統(tǒng)解決方案多采用獨(dú)立部署模式,在應(yīng)用層根據(jù)具體需求分別調(diào)用大模型或小模型的接口,這種方式難以突破 “各自為戰(zhàn)” 的局限。


而易道博識通過系統(tǒng)化的工程化手段,成功實(shí)現(xiàn)了大小模型的深度融合,智能文檔處理平臺(簡稱DeepIDP)架構(gòu)如下:




DeepIDP在底層集成了小模型推理引擎和大型模型推理引擎。該架構(gòu)可以根據(jù)任務(wù)的復(fù)雜度和需求,自動調(diào)度最合適的模型進(jìn)行處理,對外提供標(biāo)準(zhǔn)化的服務(wù)接口。

這種融合架構(gòu)屏蔽了底層模型的差異,實(shí)現(xiàn)了“無感調(diào)用”,用戶無需刻意區(qū)分某個識別能力是由大模型還是小模型提供,只需專注于自身業(yè)務(wù)需求即可

在確保高性能和高效率的同時,簡化了系統(tǒng)維護(hù),為業(yè)務(wù)創(chuàng)新提供了更靈活的底層AI能力支持。


在線留言
主站蜘蛛池模板: 黄色av网站免费观看 | 亚洲欧美xxx | 日本边添边摸边做边爱小说 | 让男按摩师摸好爽视频 | 人人看人人澡 | 免费麻豆国产一区二区三区四区 | 国产精品久久久久久久久久了 | 日本中文字幕在线视频 | 六月激情综合网 | 亚洲人吸女人奶水 | 久久视频精品在线 | 日本视频一区二区 | 99精品视频免费观看 | 福利一区二区视频 | 国产高清无密码一区二区三区 | 日本a级片网站 | 亚洲欧美在线精品 | 日本视频久久 | 天天干天天摸 | 亚洲国产av一区二区三区 | 精品欧美一区二区三区久久久 | 久久久精品在线观看 | 久久精品亚洲天堂 | 亚洲一区二区色 | 成人视频在线观看 | 成人国产精品久久 | 欧美成人精品一区 | 日韩免费高清在线观看 | 操操av| 久久受| 奇米影视777第四色 六月婷婷中文字幕 | 欧美极品少妇×xxxbbb | 亚洲天堂91 | 丁香花高清在线 | 亚洲一区二区av | 天堂精品久久 | 成人免费黄色av | 国产精品久久久久久吹潮 | 日本一二三区在线观看 | 91在线不卡 | 美日韩免费视频 |