代理人時代:人工智慧炒作的終結與內鬥經濟學(2025-2028)
執行摘要
截至2025年9月,生成式人工智慧的淘金熱已經結束,一場以務實為主、有時甚至殘酷的價值與市場主導地位之戰已經開始。最初的炒作已被冷靜地聚焦於投資回報率(ROI)、效率和可防禦商業模式所取代。未來三年(2026-2028)將由三股關鍵力量所定義:
代理式人工智慧的崛起: 從被動內容生成轉向主動、自主的人工智慧代理人是新的技術前沿,從根本上重塑工作流程並創造新一類的「虛擬同事」。
地緣政治脫鉤: 美中人工智慧競爭升級不再是背景,而是策略的核心驅動力,分裂供應鏈、人才庫和監管環境。
監管清算: 全球打擊「人工智慧洗刷」等欺騙行為,以及歐盟人工智慧法案等主要法律框架的全面實施,正將合規從法律障礙轉變為競爭優勢來源。
在這個新時代取得成功不僅需要技術實力,還需要深入理解產業的「內鬥經濟學」——將人工智慧武器化用於虛假訊息、利用監管漏洞,以及普遍存在的欺騙性行銷文化。本報告提供戰略指南,以應對塑造市場的合法與不合法力量。
第一部分:現況(2025年9月) - 主導技術與市場現實
本節建立2025年第三季人工智慧產業的基準現實,評估什麼真正有效、什麼失敗,以及為什麼,超越最初的生成式人工智慧炒作。
1.1 新技術視野:從生成到行動
代理式人工智慧的商業化: 最重要的技術轉變是從提示-回應模型轉向自主代理人。這些不僅僅是聊天機器人;它們是能夠理解使用者意圖、規劃多步驟任務並在各種應用程式中執行的人工智慧系統。我們將分析「代理式人工智慧」如何在特定領域(如行銷)產品化為「虛擬同事」。例如,行銷人工智慧可以根據高層關鍵績效指標(KPI)自主設計、執行和優化整個廣告活動。這標誌著從將人工智慧視為工具轉向將其視為勞動力倍增器的典範轉變。從最新研究論文中可以看出,技術基礎專注於推理架構、記憶系統和多代理協作。
超越文字:多模態、具身化和世界模型: 產業正積極擴展到語言之外。我們將詳細介紹多模態人工智慧的快速成長,它整合並推理文字、圖像、語音和感測器資料。這項技術正在實現更複雜的應用,市場預計將以超過34%的年複合成長率成長。下一個合理步驟「具身人工智慧」或「物理人工智慧」現在正從研究轉向早期商業化,大量風險資本流入專注於類人機器人和「世界模型」的新創公司——基於物理定律而非僅僅統計文字模式理解並與物理世界互動的人工智慧。這預示著人工智慧與機器人技術和工業自動化的長期融合。
經濟必要性:效率和專業化: 「更大就是更好」基礎模型的時代因不可持續的成本而結束。市場已轉向經濟效率。這體現在兩個關鍵趨勢:
- MoE的回歸: 專家混合(MoE)架構僅為給定任務啟動神經網路的一小部分,已成為主流。它們以低得多的推理成本提供與密集模型相當的性能,使其成為盈利能力的關鍵因素。
- LLM/SLM分化: 市場正在分化。少數大型語言模型(LLM)正在商品化,而真正的價值正在專有、高品質領域資料訓練的專業小型語言模型(SLM)中創造。這為特定業務任務實現更高準確度和更低營運成本。
1.2 商業戰場:大型人工智慧專案失敗的流行
嚴峻的統計數據: 儘管投資龐大,人工智慧專案失敗率仍高得驚人。估計顯示70-85%的人工智慧專案無法從概念驗證(PoC)階段進入生產。這是實現人工智慧經濟承諾的最大挑戰。
根本原因分析 - 資料鴻溝: 失敗的主要原因不是演算法,而是資料。缺乏高品質、妥善治理和相關的訓練資料是「最大障礙」。不良資料導致模型性能不佳、有偏見的結果和專案放棄。這正在擴大「人工智慧鴻溝」,擁有成熟資料基礎設施的公司不斷前進,而其他公司則停留在永久的試點專案中。
錯誤戰略和文化: 除了資料之外,失敗根源於商業基本面。關鍵失敗因素包括:
- 誤解問題: 專注於技術本身而非解決明確的商業問題。
- 缺乏信任和文化抵制: 沒有明確的治理、教育或溝通,員工害怕人工智慧並積極抵制其實施。
- 基礎設施不足: 舊有IT系統無法支援人工智慧部署和資料管理的需求。
產業案例研究 - 成功與失敗:
- 製造業: 我們將分析人工智慧在製造業採用的挑戰,包括資料分散、技能差距和與舊有系統整合。成功案例,如Georgia-Pacific使用人工智慧進行預測性維護,將計劃外停機時間減少30%,將與更廣泛的產業現實對比,後者難以超越試點專案。
- 金融業: 人工智慧成功用於演算法交易、詐騙檢測(萬事達卡將檢測率提高一倍)和個人化客戶支援(摩根士丹利)。然而,演算法偏見和市場操縱的潛在風險仍然是重大挑戰。
- 醫療保健(事後分析): IBM Watson for Oncology的高調失敗提供了關鍵教訓。該專案失敗是因為:1) 資料不匹配: 它是在假設案例而非真實世界患者資料上訓練的。2) 整合失敗: 它無法與醫院工作流程整合,醫生難以使用。3) 炒作: IBM的行銷創造了技術無法滿足的不切實際期望,摧毀了可信度。
這些市場現實揭示了兩個關鍵意涵。首先,人工智慧經濟正在分化為「模型提供者」和「價值創造者」。隨著基礎LLM商品化和推理成本暴跌,在通用模型的純粹性能上競爭對大多數人來說是一場失敗的遊戲。同時,最高價值正被那些能夠使用專有資料解決特定高價值商業問題的人所獲取。製造業或金融業的成功不是來自建立更好的LLM,而是來自將現有LLM應用於獨特資料集以解決特定問題,如預測性維護或詐騙檢測。這意味著市場正在分裂:少數科技巨頭將供應「人工智慧電力」(模型),但真正的利潤和競爭優勢將流向成為各自產業「人工智慧應用」(價值創造)大師的公司。這表明未來最有價值的人工智慧公司可能根本不是人工智慧公司,而是擁有最佳資料的現有產業領導者。
其次,「人工智慧就緒度」正在成為企業估值的新關鍵指標,它是資料成熟度和組織文化的衡量標準,而非技術。由於超過80%的專案失敗,主要原因是資料品質、資料治理和文化抵制,有壓倒性證據表明,組織成功部署人工智慧的能力不是由其在人工智慧軟體上的支出來預測,而是由其底層資料基礎設施的健康狀況和變革管理能力來預測。這意味著投資者和分析師現在將開始不僅根據損益表評估公司,還根據「人工智慧就緒度分數」——資料治理成熟度、基礎設施現代化和員工人工智慧素養的綜合衡量標準。分數低的公司代表巨大的投資風險,無論其聲明的人工智慧野心如何,為盡職調查和併購創造新框架。
第二部分:內鬥經濟學 - 欺騙、操縱和競爭「犯規」
本節直接回應使用者對人工智慧產業中用於獲得競爭優勢的不道德和非法策略的毫無保留洞察的要求。
2.1 「人工智慧洗刷」:欺騙性行銷的流行
人工智慧洗刷劇本: 我們將剖析公司用來誇大其人工智慧能力的常見策略。這不僅僅是誇大其詞;它是一種系統性策略,旨在誤導投資者和客戶。類型包括:
- 濫用技術術語: 將簡單自動化或統計分析標記為「人工智慧」或「機器學習」。
- 範圍誇大: 將有限的人工智慧功能呈現為支援整個公司。
- 錯誤歸因技術來源: 使用第三方API(如OpenAI)但將其行銷為專有的內部人工智慧系統。
監管清算 - FTC和SEC反擊: 監管機構不再被動。我們將分析執法行動的顯著增加。
- SEC行動: 美國證券交易委員會(SEC)已對幾家投資顧問(Delphia、Global Predictions)因虛假宣稱其人工智慧能力而提出指控,明確先例表明「人工智慧洗刷」可構成證券詐欺。
- FTC行動: 美國聯邦貿易委員會(FTC)正積極追究對做出欺騙性聲明的公司的消費者保護訴訟。2025年8月對Air AI的標誌性訴訟成為關鍵案例研究。
案例研究:FTC訴Air AI: 此案至關重要,因為它針對代理式人工智慧及其取代人類員工能力的聲明。
- 欺騙性聲明: Air AI行銷其「Odin」工具為完全自主代理人,可以取代人類銷售代表、進行複雜對話並為小型企業產生巨額利潤。
- 現實: 根據FTC的投訴,該工具是「有缺陷的」,無法執行基本功能,需要大量手動預先腳本化,使其實際上無法使用。他們還涉嫌以虛假退款保證從客戶那裡騙取數百萬美元。
- 先例: 此案表明監管機構現在正在審查人工智慧的「下一個大事件」,不會容忍關於自動化和生產力的誇大聲明,特別是當針對脆弱的小型企業時。
2.2 人工智慧的武器化:虛假訊息和企業威脅
國家主導的影響行動: 人工智慧已成為治國工具。根據OpenAI的威脅情報報告,我們將詳細說明俄羅斯、中國和伊朗等國家行為者如何使用生成式人工智慧:
- 大規模生成具有更高可信度的多語言宣傳內容。
- 創建虛假社群媒體檔案和評論,以製造草根支持或反對的假象。
- 針對特定地緣政治事件(如選舉或衝突)操縱公眾輿論。
企業間諜和市場操縱: 國家使用的相同技術正被企業戰爭採用。雖然有記錄的案例很少見(由於其隱蔽性質),但公司能夠部署人工智慧:
- 散布關於競爭對手的負面謠言或假新聞以損害其股價。
- 生成有組織的社群媒體活動以攻擊競爭對手的產品或推廣自己的產品。
- 使用人工智慧進行複雜的社交工程以獲取競爭對手的商業機密。
2.3 灰色地帶:利用漏洞和道德界限
資料竊取: 人工智慧主導地位的基礎是資料,獲取資料的方法通常在道德和法律上都很可疑。這包括未經許可從網際網路大規模抓取受版權保護的文字和圖像,這是針對主要人工智慧實驗室的眾多高風險訴訟的核心。
演算法偏見作為商業模式: 雖然經常被討論為意外缺陷,但偏見可以是故意特徵。例如,信用評分人工智慧可能會被微妙調整以偏愛或不偏愛某些人口統計群體,不是出於公然歧視原因,而是因為它基於歷史資料相關性優化利潤。這是一種極難證明或監管的「犯規」形式。
內容啟示錄 - 「Gizmodo/io9」先例: G/O Media使用人工智慧在其io9等網站上發布低品質、錯誤百出文章的事件不僅僅是錯誤;它是商業模式測試。策略是以接近零成本生成大量內容以捕獲搜尋引擎流量和廣告收入,幾乎不考慮品質或準確性。這是一種玩世不恭的做法,優先考慮數量而非價值,貶低人類新聞業並污染資訊生態系統。
這些不公平做法正在演變為人工智慧產業的結構性特徵,對整個生態系統徵收「信任稅」。多起不當行為實例,如人工智慧洗刷、國家贊助的操縱和低品質內容生成,不是孤立事件。這些行為具有累積效應。消費者和企業對所有人工智慧聲明越來越懷疑,這迫使合法公司花費更多時間和金錢證明其聲明是真實的,實際上支付惡意行為者徵收的「信任稅」。最終,這意味著「可信度」本身成為關鍵產品特徵和競爭差異化因素。能夠可驗證地證明其人工智慧安全、可靠和誠實行銷的公司將獲得溢價並吸引更多規避風險的企業客戶。這將人工智慧倫理和治理從企業社會責任(CSR)職能提升為產品策略的核心部分。
因此,監管執法成為未來三年塑造競爭格局的最重要催化劑。多年來,人工智慧產業在監管真空中運作,由「快速行動並打破常規」精神主導。FTC和SEC的行動標誌著根本轉變。現在欺騙有明確的財務和法律後果,歐盟人工智慧法案施加了更結構化的要求。這意味著下一階段的贏家可能不是那些擁有最佳技術的人,而是那些最能應對這個複雜法律迷宮的人。擁有突破性模型的新創公司可能被單一FTC禁令摧毀,而行動較慢但完全合規的競爭對手可能會繁榮。這使得人工智慧公司的法律和合規團隊與其研發團隊一樣關鍵。
第三部分:未來三年(2026-2028) - 應對地緣政治、監管和顛覆
本節提供前瞻性預測,專注於將定義戰略決策的宏觀力量。
3.1 大脫鉤:美中人工智慧冷戰
不對稱競爭: 美國和中國沒有打同樣的戰爭。我們將分析其不同策略:
- 美國: 在基礎模型研發、私人風險資本投資和吸引全球人才方面佔主導地位。其策略是市場驅動的,由少數強大的科技巨頭和新創公司領導。重點是推動技術前沿(如AGI)。
- 中國: 在人工智慧專利數量(儘管品質受爭議)和政府主導的自上而下實施跨產業和國家基礎設施方面領先。其策略是國家驅動的,專注於實際應用、社會治理和實現技術自給自足(如人工智慧晶片)以應對美國制裁。
對全球業務的影響: 這種競爭不是抽象的;它有直接後果:
- 供應鏈分裂: 美國對中國先進人工智慧晶片的出口管制正迫使硬體供應鏈分化,增加全球公司的成本和複雜性。
- 資料巴爾幹化: 各國越來越多地與美國或中國影響力範圍對齊,對跨境資料流動施加限制,而這對訓練人工智慧模型至關重要。
- 人才爭奪戰: 兩國激烈競爭以確保最優秀的人工智慧研究人員,美國目前保持優勢,但中國透過政府對教育的大規模投資迅速增長其國內人才庫。
3.2 全球監管迷宮:合規作為競爭護城河
分裂的世界: 沒有單一的全球人工智慧監管標準。公司必須應對競爭法律框架的拼湊。我們將提供三種最有影響力模型的戰略比較:
- 歐盟的「人工智慧法案」: 一個全面的、基於風險的框架,按風險等級(不可接受、高、有限、最小)對人工智慧系統進行分類,並對「高風險」應用施加嚴格義務。通用人工智慧模型的關鍵條款將於2025年底生效,但實施複雜且面臨延遲。它是全球最具規範性和負擔最重的框架。
- 美國的「市場執法」模式: 美國缺乏單一的全面聯邦法律。相反,它依賴FTC和SEC等現有機構應用現有法律(反對欺騙、詐欺、歧視)於人工智慧,如「人工智慧洗刷」案例所示。這種方法更靈活但較不可預測。潛在的川普政府可能更傾向於進一步放鬆管制。
- 南韓的「平衡」模式: 「人工智慧基本法」(2026年1月生效)試圖在促進創新與確保安全和信任之間取得平衡。它比歐盟的限制性較少,主要專注於「高風險人工智慧」系統並建立國家治理結構,同時為人工智慧產業提供重大支援。
表格:比較全球人工智慧監管環境(2025年)
| 地區/框架 | 歐盟(人工智慧法案) | 美國(部門執法) | 南韓(人工智慧基本法) |
|---|---|---|---|
| 核心哲學 | 基於風險、預防性 | 市場驅動、事後執法 | 促進與責任並重 |
| 關鍵立法 | 人工智慧法案(法規(EU) 2024/1689) | 現有法律(FTC法案、證券法等) | 人工智慧基本法 |
| 主要範圍 | 跨部門「高風險」系統 | 欺騙性行銷、詐欺、偏見 | 「高風險人工智慧」和產業促進 |
| 關鍵合規截止日期(截至2025年9月) | GPAI模型規則(2025年8月)、全面適用(2026年8月) | 持續執法行動 | 完整法律執法(2026年1月) |
| 執法機構 | 國家主管機關、人工智慧辦公室 | FTC、SEC、部門監管機構 | 科學與資訊通信科技部、國家人工智慧委員會 |
| 對公司的戰略意涵 | 高合規負擔、進入障礙。但「信任」認證可以是品牌優勢。 | 高訴訟風險、低可預測性。有利於創新速度。 | 平衡環境。有利於研發和擴大規模,其他國家的潛在模式。 |
這些監管環境的分歧導致的不僅僅是脫鉤;而是圍繞不同監管哲學的「三極化」現象。歐盟的嚴格預防模式、美國的自由放任執法模式和南韓的平衡「促進和監管」模式代表的不僅僅是變化,而是關於國家在管理技術中角色的根本不同哲學。這意味著公司的全球策略必須針對每個集團量身定制,為新的「犯規」策略創造機會:「監管套利」。例如,公司可以在監管較少的美國開發和訓練高風險人工智慧系統以獲得市場吸引力和資料,然後才解決進入歐盟市場所需的昂貴合規挑戰。南韓可能成為尋求比歐盟較不懲罰性但比美國更結構化的穩定監管環境的公司的首選「沙箱」。
3.3 下一波:技術和勞動力的轉變
商業化之路: 到2028年,核心研發重點將是使人工智慧能夠更深入地與真實世界互動的技術。這包括開發能夠支援下一代自動駕駛車輛、機器人技術和科學發現平台的強大世界模型和物理人工智慧。
人工智慧增強的勞動力: 對話正從「人工智慧取代工作」轉向「人工智慧增強技能」。最有價值的員工將是那些能夠有效與人工智慧代理人協作的人。這將重點放在難以自動化的軟技能上:批判性思維、創造力和情商。
人工智慧導師的崛起: 生成式人工智慧將徹底改變企業教育和培訓。個人化人工智慧導師可以大規模提供一對一指導,大幅加速技能提升和再培訓工作以縮小人工智慧人才差距。這不僅對員工有利;它是公司建立人工智慧就緒勞動力的關鍵工具。
未來三年最嚴重的「犯規」將是針對人工智慧產業本身的人工智慧武器化。我們目睹了人工智慧被用於散布關於國家和公司的虛假訊息,以及複雜監管的出現[如歐盟人工智慧法案]。下一個合乎邏輯的步驟是結合兩者。複雜的行為者(國家或企業)可以使用人工智慧生成深度偽造證據或機器人驅動的投訴激增,暗示競爭對手的人工智慧產品不符合例如歐盟人工智慧法案的高風險條款。這可能引發代價高昂且耗時的監管調查,凍結競爭對手在關鍵市場運營的能力,即使聲明最終毫無根據。這是監管框架本身的武器化,使用人工智慧生成的欺騙作為彈藥。這是大多數公司未準備好的第三級威脅。
結論:代理時代的戰略要務
- 擁抱務實而非炒作: 成功的關鍵不再是追逐最新模型,而是無情地專注於以明確ROI解決真實商業問題。投資資料基礎設施和治理作為您的主要競爭護城河。
- 主動應對監管迷宮: 將合規視為戰略職能而非成本中心。從一開始就設計信任和透明度以在監管最嚴格的市場中獲勝。
- 為新一類威脅做準備: 競爭格局現在包括國家贊助的虛假訊息和監管武器化。透過投資網路安全、威脅情報和強大的危機溝通計畫建立韌性。
- 培養人機夥伴關係: 勞動力的未來不在於取代人類,而在於增強他們的技能。大力投資人工智慧素養並培養將在代理時代區分人才的軟技能。最終競爭優勢將屬於掌握人類創造力與人工智慧協作的組織。
來源
- geri.re.kr - Analysis of Global Technology and Industry Trends to Watch in 2025 - Gumi Electronics & IT Research Institute
- contents.premium.naver.com - 2025 Artificial Intelligence (AI) Outlook: The Future of Technology Evolving with Humans - Naver Premium Content
- arxiv.org - Artificial Intelligence Jul 2025 - arXiv
- gminsights.com - Multimodal AI Market Size & Share, Statistics Report 2025-2034 - Global Market Insights
- arxiv.org - Computer Vision and Pattern Recognition Jun 2025 - arXiv
- ibm.com - Key Artificial Intelligence Trends | IBM
- eai.or.kr - [New Year Special Commentary Series] ⑦ 2025 AI Technology Competition and World Politics: South Korea’s Response Strategy
- sas.com - SAS Announces 2025 Artificial Intelligence (AI) Trend Forecast | SAS KOREA
- seo.goover.ai - The State of AI in 2025: From Market Trends to Application Cases - Goover
- nttdata.com - Between 70-85% of GenAI deployment efforts are failing to meet their desired ROI
- datascience-pm.com - Why Big Data Science & Data Analytics Projects Fail
- rand.org - The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed: Avoiding the Anti-Patterns of AI | RAND