AI模型「快思考」與「慢思考」,終于可以自適應(yīng)切換了。剛剛開源的昇騰原生openPangu-Embedded-7B-V1.1模型,首次實現(xiàn)了這一能力。從官方公布的評測結(jié)果來看,新模型展示了強(qiáng)大的性能,尤其是在數(shù)學(xué)和代碼能力上。其「慢思考v1.1」版本在數(shù)學(xué)評測AIME24和AIME25上分別取得79.38和70.00的高分,在代碼能力評測LiveCodeBench上也達(dá)到了58.27分,全面超越了v1.0版本。有趣的是,團(tuán)隊還推出了一個「自適應(yīng)v1.1」版本。該版本通過數(shù)據(jù)質(zhì)量驅(qū)動的學(xué)習(xí)策略,實現(xiàn)了效率與性能的平衡。評測數(shù)據(jù)顯示,在基本不影響精度的前提下,「自適應(yīng)」模型能在簡單任務(wù)上(如C-Eval)大幅縮短輸出長度,從而降低推理成本和時間;而在困難任務(wù)上(如AIME24),則能保持與「慢思考」版本相當(dāng)?shù)妮敵鲩L度和思考能力,以確保性能。例如,在C-Eval上,自適應(yīng)模型的輸出長度從2484縮短至1723,減少了約50%,而精度僅從84.92微降至83.33。圖中的幾個案例,可以讓我們直觀感受openPangu的自適應(yīng)思考能力。1)快思考:一步到位。對于“法國的首都是哪座城市?”這類簡單的事實性問題,模型會啟動「快思考」模式,迅速給出「巴黎」這個準(zhǔn)確答案,沒有任何多余的分析,高效直接。2)慢思考:步步為營。面對稍微復(fù)雜的計算題,如「100減去47再加上13等于多少?」,模型則會自動切換到「慢思考」模式。它會像草稿紙一樣,清晰地列出計算步驟,最終得出正確答案66。整個思考過程一目了然,保證了結(jié)果的準(zhǔn)確性。3)慢思考:應(yīng)對復(fù)雜邏輯。對于「如何倒序拼寫一個單詞?」這類需要邏輯推理的復(fù)雜問題,openPangu會調(diào)用強(qiáng)大的「慢思考」能力,對問題進(jìn)行庖丁解牛般的拆解:首先識別單詞的每一個字母,然后從最后一個字母開始重新排列,最終精準(zhǔn)地完成倒序任務(wù)。這個過程展示了模型處理復(fù)雜指令的嚴(yán)謹(jǐn)邏輯。這種根據(jù)任務(wù)難度自適應(yīng)切換思考模式的能力,確保了用戶在提出簡單問題時能獲得閃電般的回應(yīng),而在處理復(fù)雜難題時,模型又能沉下心來,進(jìn)行深入、嚴(yán)謹(jǐn)?shù)耐评怼O胍w驗更多?詳見官方開源代碼倉:https://ai.gitcode.com/ascend-tribe/openPangu-Embedded-7B-V1.1