<big id="h13nx"></big>

    <noframes id="h13nx">
    <output id="h13nx"><rp id="h13nx"></rp></output>
      <noframes id="h13nx">

      <b id="h13nx"><ol id="h13nx"></ol></b>
      正在閱讀:

      鮑勇劍等:人工智能企業的風控框架

      掃一掃下載界面新聞APP

      鮑勇劍等:人工智能企業的風控框架

      如果我們看到人機共處的必然性,希望獲得人機共處的正面效益,那我們就必須同時關注人機共處的系統風險。利用人機共處效益的合適方式是同時提升識別和控制風險的能力。

      圖片來源:視覺中國

      文 丨鮑勇劍 涂威威 袁文龍

      風險代表著人們對負面影響事件的概率評估。風險因素也許來自外部力量,也可能由內部薄弱環節引發。風險對企業的存在、運營和發展帶來威脅。人機共處的企業中,人工智能作為外部和內部活動的樞紐中介,也必然成為各類商業風險集中出現的領域。

      在《常態事故》(Normal Accidents)中,已故社會學家佩羅(Charles Perrow)極有預見性地指出:在提高生產力的同時,技術創造了一個強關聯的系統,它必然制造風險。事故不再是意外事件,而是強關聯系統的常態。佩羅的預見在人機共處環境中得到充分體現。

      人工智能是一種系統能力,可以解釋和學習外部提供的數據,并利用數據學習能力去實現設定的目標,完成規定的任務。在此過程中,它能夠通過機器學習的反饋回路,不斷靈活調整和適應與外部環境的關系,以至于能夠在合適的時空情境下,作出合適的選擇。環顧左右,我們知道,人工智能已經深入到人類經濟活動的各個方面。

      據普華永道會計事務所估算,到2030年,人工智能及其應用對全球經濟會產生15.7萬億美元($15.7 trillion USD)的經濟影響,大約接近中國2021年的GDP($17.8 trillion USD)。除了規模,人工智能深入企業活動的程度也從點、線到全系統。以人工智能企業第四范式為例,其應用從增強企業單個功能發展到涵蓋產、供、銷、研、客服、物流全系統的智慧企業方案。普及的人工智能也制造了一個新型的強關聯系統,由此派生的管理風險對許多企業還似初識。

      因此,建立對人工智能企業風控的全面認知刻不容緩。本文意圖提供一個系統的風控框架,幫助企業識別人機共存現象中的新型風險。

      已故科學家霍金(Stephen Hawking)曾警示:人工智能會帶來人類生存層次的危機。在哲學上,人工智能確實提出許多宏觀科學哲學問題。在技術建模過程中,工程師會遇到各種各樣的數據代碼問題,引發系統錯誤。在公共政策方面,人工智能引發對社會控制和影響能力的合法性的關注。不過,這些不是本文的重點。人工智能已經被引入企業管理全系統,本文側重討論它連帶產生的企業管理風險。人工智能在企業戰略、日常運營、組織結構和企業文化四個方面都會衍生新型風險,將之綜合在一起,可組成一個人工智能的企業風控框架(見圖1)。

      公元前3500年,在美索不達米亞的幼發拉底河流域,人們每逢大事就會詢問當地巫師能否成事。巫師會評估正向和負面因素,并在泥板上標出比較分析的結果。中國古代的《易經》也為決策者提供未來情境的組合分析。它們可以被視為人類最早的風險思維和對外部災害的規避活動。不過,規避外部災害和風險管控有區別。前者是被動認識,后者代表人們的主動認知能力。

      風險,特別是技術風險,是一個現代概念。風險指的是可能發生的意外或失誤的概率,以及對計劃中的活動帶來的損害與沖擊。它與早期樸素的避禍意識有差別。避禍是假設災害來自外部環境因素,人們無法影響和控制,只能選擇躲避。風險是一個概率問題,對它的影響,人們可以防范、避免、降低、補償、恢復。簡言之,通過人們有意識的管理活動,風險能夠得到控制。

      本文建議的風控框架就是識別人工智能的連帶風險并加以控制的一套管理步驟。以下,先指出四類風險的問題性質,分析它們的來源,然后提出風控建議。因為人工智能對企業活動的系統改造還是一個進行時態現象,這一框架只能是基于現有情況的總結,并需要與時俱進。本文的貢獻在于匯聚零散的風險分析為一個系統框架,并為將來的批判和反思提供一個集中的靶向。

      戰略風險

      2018年5月25日,歐盟的數據保護規范(General Data Protection Regulation, GDPR)正式生效。許多AI公司猝不及防,不得不暫時停止在歐洲的業務。事實上,歐盟在2012年就頒布了規范,并說明生效時日。如果在歐洲有業務的公司董事會理解它對數據收集和使用的影響,企業是有足夠的時間采取技術措施,適應變化的。遺憾的是,許多企業的董事會成員缺乏人工智能知識,無法適時反應。

      董事會沒有在治理結構層面設計和推行有針對性的政策只是AI戰略風險的一個表現。另外兩個普遍的表現包括企業高管看不到AI改變商業模式,以及引入人工智能初期可能存在的價值沖突。

      例如,美國濱州的一個地方政府人文服務部與人工智能公司合作開發了“反虐待兒童”軟件 “AFST”(The Allegheny Family Screening Tool)。通過綜合各個部門的信息,這一軟件可以對本地兒童是否可能遭受家庭虐待作出風險評估,還能提出有預見性的干預措施??墒?,在實施時,發現一個重大問題。衛生部門接到緊急求助電話的頻率是預防軟件的一個重要參數。黑人家庭撥打醫療求助電話的頻率一般高于非黑人家庭,盡管對求助電話頻率參數作過加權,系統還是給黑人兒童受虐待以更高的風險值。當軟件推出后,公司和政府機構都受到各界嚴厲的批判。對這一有明顯種族歧視的技術分析后果,董事會無疑是監管缺失、反應遲緩的。

      造成董事會成員反應遲緩的一個根本原因是存在認知代溝。董事一般是事業有成的商業精英,他們的知識結構形成于10-20年之前。對于最近10年興起的人工智能,董事們缺乏必要的知識準備,存在認知代溝。和大多數管理者的認識類似,董事會成員了解AI能促進流程自動化、生產規?;?,能提高生產效率。但是,對AI的全系統影響以及外部監管的反應,他們有認知盲點。這直接體現在治理結構的缺陷上。治理結構涉及企業戰略中的大關系、長遠發展目標和根本規范。董事會成員的認知代溝致使他們忽略人工智能帶來的顛覆性變化。

      如果企業高管只是關注人工智能對生產效率和規模的正面效果,就可能造成決策短視。初期,改造現有流程的效率,降低成本,這是管理者對新技術的起始訴求。但是,隨著技術和應用的演變,高管必須要站在商業模式的高度思考,人工智能怎樣創造新的價值、新的客戶關系和新的競爭能力。從已經發生的實例看,高管需要理解人工智能不僅可以改變怎樣做,還能影響做什么的問題。做什么?怎樣做?在哪里創造差異化的價值?當人工智能直接觸及到這些問題時,企業需要重新想象自己的商業模式。

      另外,強大的AI技術有可能帶來道德風險,并有違于公司的核心價值觀。與過去的技術相比,人工智能更能夠刺激和培養特定的消費行為。而消費過度成癮的時候,它就成為一種道德倫理的挑戰。強大的AI技術還可能在服務特定客戶的同時,對制度規則和其他利益相關者造成間接、灰色、滯后性的傷害。

      一個典型的企業案例是“臉書”(Facebook)。臉書的后臺AI技術可以識別使用者的興趣偏好,并加大推送同一類型信息。許多患有厭食癥的青少年,因為不斷收到推送的同類信息而強化了厭食行為。在美國2016年大選過程中,一家名為“劍橋分析”(Cambridge Analytics)的咨詢公司與臉書合作,利用AI技術,控制社交媒體中的政治話題信息,影響選民的投票行為。公司的一些員工明確反對利用技術操縱選舉的做法。后來,劍橋分析被告上法庭,這些員工成為了法庭證人。

      在人工智能應用領域,商業實踐和公司價值觀相違背的現象屢屢出現。原因很多,其中最突出的一個是利用AI實現單一目標,缺乏制約和平衡。當AI被引入企業時,它往往與一個顯著的需求相關,例如識別和強化某種消費和信息使用習慣。但是,強大的AI技術也會帶來負面溢出效應,例如操縱政治的能力和制造病態消費習慣。它們與公司和員工的社會價值觀發生沖突,最終不僅離散人心,還可能給企業致命一擊。劍橋分析這家公司后來以破產告終。

      哈貝馬斯(Jurgen Habermas)說:真理就在比例中!對于越來越強大的人工智能,把握它的適度性不是一件容易的事情,特別是關系到主觀性極高的價值觀。人工智能企業也發現,沒有一付通用的妙方能解除AI涉及的道德風險。比較合適的方法就是始終保持關注,始終以反思和反省的態度看待技術的社會影響。為此,設立公司內部的倫理委員會,邀請外部倫理專家做第三方檢驗,借鑒行業經驗和教訓,是AI企業現行的風控實踐。

      另外一個有用的方法是做“蒙眼品嘗”(Blind taste)??煽诳蓸泛桶偈驴蓸吩浻羞^“蒙眼品嘗”的營銷方法,把商標拿掉,讓消費者直接品嘗味道來評估喜好。專家建議,借用同樣的邏輯,用不同的訓練數據建立人工智能預測模型,包括撥打緊急醫療電話的數據。然后,從模型中抽出特定性質的數據,例如緊急醫療電話,看模型是否仍然可以提供有效的預測。這個設計能解決模型某個參數造成的自我循環、自證合理的問題。

      人工智能的道德風險將始終挑戰管理者的認知。就像著名的道德困境——“滑輪車困境”(Trolley dilemma),是否讓滑輪車改道,實則是一個是否可以犧牲少數、救助多數的兩難選擇。無論在自動駕駛應用,還是自動化替代人工的管理決策上,人機共處的企業將不斷遇到兩難的道德困境。這要求最高決策者從戰略的高度正視這種風險,并通過集體反思,做出符合當地具體情況的選擇。涉及到人工智能的道德風險,人既是問題的制造者,也是答案的唯一來源。圖2概括總結了戰略風險方面的問題、分析和方案。

      運營風險

      AI應用在交通工具中已經很普遍了,可是,車主對AI的功能卻有截然不同的反應。車主可以接受AI對道路選擇的建議,但不太愿意選擇AI的自動駕駛功能。研究表明,人工智能時常遇到“真實性”偏見(Authenticity)的挑戰。在車主看來,路況建議的AI功能是一種“客觀”的真實,可以接受;而自動駕駛功能則涉及道德判斷的“主觀”的真實,一般難以接受。心理學家早就指出人在決策過程中受到多種偏見的影響,例如尋求確定的偏見(Confirmation bias)、感知框架的偏見(Framing bias)、歸因的偏見(Attribution bias)、錨定偏見(Anchoring bias)等。對人的認知和決策偏見,管理學已經逐漸摸索出一套對應和適應的方法。但是,對人工智能技術引發的新偏見,例如“真實性”偏見,管理學還沒有比較好的應對方法。在運營互動過程中,新偏見也連帶出新風險。

      加州伯克利曾經發布一份極有行業影響的報告,指出美國金融公司智能算法支持的服務比人工服務收費低40%,但算法對少數族裔申請的房屋按揭收取額外的利息。類似情況在英國和新加坡也出現過?,F在,各國對智能算法運用過程中的公正性有鼓勵政策,但是,是否執行和怎樣執行,還取決于金融公司的實際操作。因為監管者的專業知識水平滯后于人工智能企業,政策只能暫時鼓勵自我監管。這增加了企業創新的寬松度,但也帶來事后問責的風險。

      自我監管不盡人意的例子很多。2018年,網絡企業亞馬遜的人事招聘算法被發現存在性別歧視,自動降低女性申請人入圍概率。幾年前,蘋果公司的信用評級系統也出現對女性消費者的歧視。蘋果創始人伍茲尼亞克(Steve Wozniak)的信用額度是他妻子的10倍,盡管他們的財務和賬戶是完全共享的。這些錯誤不僅增加了運營中的法律風險,也不利于優化運營過程的效率。

      運營風險還發生在互動過程中。它包括內外利益相關者之間的互動。首先,它表現在不可理解和難以解釋的風險上。員工對人工智能自動給出的建議也許不理解;客戶、消費者對人工智能的反饋也會感到有失常理,不可理解。其次,它表現在難以舉證性上。對人工智能選擇決策的后果,系統本身難以在事后舉證它的合理性和合法性,這種情況在監管部門檢查和審計人工智能造成的不良后果時經常出現。

      運營風險還表現在內置的偏見上。人工智能的強化學習起始于訓練數據。如果訓練數據有偏見,人工智能會強化這種偏見。AI模型是工程師建立的,建模工程師自身的認知偏見也容易內置在系統中,最終造成負面效果。內置的偏見與能夠使用的訓練數據庫有關。企業在建立AI應用時,往往從內部的少數人成功的行為過程開始。而這些人的成功已經受到諸多社會因素影響,例如種族、教育背景、家庭收入、社會關系等。這些隱性變量也同時通過訓練數據左右AI的強化學習,并成為決策規則的一部分。

      互動過程的運營風險源不止是工程師,還有使用者。微軟曾經為推特打造了一個談話機器人(Chatbot),但很快就取消并下線。因為,在互動過程中,使用者各種各樣的污言穢語和種族歧視言論把談話機器人帶壞了。由此,我們看到,運營風險既可能來自內部,也可能來自外部。

      AI系統遭遇監管質詢時,難以舉證合理性。因為系統變量從千萬級到億萬級,很難挑選和分辨出是哪一個單獨變量導致決策失誤和不良后果。特別是監管本身有滯后屬性,一般發生在社會不良后果已經形成的時候,這為溯因舉證帶來困難。例如,螞蟻金服曾經能夠利用阿里生態中的各種數據,自動生成對小微企業的商業貸款決定。這個過程調動超過3,000個數據來源。如果有企業質詢阿里算法的合理性,螞蟻金服很難解釋怎樣由這3,000個數據來源推導出商業決策。換到一個嚴監管的環境,比如歐盟,這套算法就會立即遭遇監管危機,因為企業有責任解釋消費者獲得不同服務的依據。算法的難以解釋性成為運營風險的一個要素。

      導致不可理解性和難以解釋性的因素很多。概括起來,主要是下面幾個原因:一是機器運作邏輯和人腦思維邏輯不一樣;二是人的思維受有限理性和直觀情感規則影響;三是人的思考往往是線性推理的,抓大放小、有始有終,而機器則可以面面俱到,平行運轉,來回往返;四是社會互動過程的復雜動態特征,人工智能不一定能涵蓋社會文化中隱性和微妙的變化。

      簡而言之,人工智能運轉過程不需要也不依賴人的理解性,也不一定需要善解人意。對人而言,它是一個黑箱過程。這是AI機器學習強大的原因,但也造成互動過程中的不可理解性和難以解釋性。

      也是因為受到監管的倒逼,運營風險是各類風險中首先被重視的。過去,人們認為人工智能運營過程的黑箱是無法避免的技術特征?,F在,多種解決方案進入試錯階段。它包括提升運營過程可視化水平,用自然語言解釋代碼模型和運營過程,幫助監管者和消費者理解AI決策的依據和邏輯?,F在也已經有允許溯因、文件留檔和過程示警的機器學習模型。例如,IBM的開放源平臺(Watson OpenScale platform)已經可以支持決策溯源需求。另外,事先審核訓練數據庫的隱性偏見、內置識別偏見的變量、培訓提高工程師的社會意識等措施也在行業中推廣開來。

      消除工程師的自身偏見,也可以通過人力資源政策來推行。一些企業積極雇傭少數族裔、女性和新移民工程師,他們的世界觀和文化背景為企業多元化增添力量。多元化是對沖單一思維帶來的偏見的好方法。如軟件行業的萊納斯法則(Linus's law)所言:有足夠豐富的眼球,任何錯誤都是膚淺的。

      在降低運營風險的實踐中,法律領域相對比較積極。它與錯誤后果的嚴重性和監管的力度有關。法律領域的人工智能對當地具體情況、小數據和厚數據更加敏感。一個預測判斷減刑犯人是否會重新犯罪的算法不僅涉及到個人命運,還關系到社區安全。因此,法律領域的人工智能更重視以特征數據為中心,用特別的價值回歸模型(Shapely analysis)來訓練機器學習社區動態變量,避免廣譜性、通用算法帶來的預測錯誤。

      總之,人機共處企業中,運營風險一直會有,但是風險對沖的方法也層出不窮。圖3概括了運營風險的問題特征、來源分析和應對方案。

      結構風險

      組織結構為戰略服務。任務性質、決策角色和權威主導組織結構設計。當人工智能進入戰略層面后,傳統的結構設計就不能滿足新的戰略要求,這會帶來結構性風險。

      在本刊曾經發表的一篇文章《高維智慧企業的認知協同策略》(2021年第7-8期)中,筆者分析,人工智能化的企業中,任務分工的基本特征發生重大變化:從勞務分工(Division of labor)演變到認知協同(Cognitive collaboration)。任務決策出現決定(Decision)、反思(Deliberation)、設計(Design)和探索(Discovery)四種認知活動范疇。在AI支持下,大多數日?;顒佣伎梢宰詣踊?,可以由機器去“決定”,而其他三類認知活動,則要求不同風格和方式的人機協同。在人工智能的機器這一面,強化機器學習,有監管和無監管的機器學習、神經網絡機器學習等工具為人機協同展開一個廣泛的選擇區域。但是,受制于自然人的學習能力、有限理性(計算、記憶和感知能力的有限性)和去學習能力(Unlearning skill),自然人往往自陷于組織遺留下來的結構選擇。機器可以同時接受等級制結構、扁平結構或者二者任意程度的組合、變化,而員工有歷史性依賴,很難隨工作任務的境遇做靈活、共時的切換。當員工必須與機器協同工作時,結構風險便出現了。

      人工智能化的企業的結構風險主要體現在三個方面。

      第一,AI賦能后,組織的核心流程發生重大變化。它包括:數碼化(Digitization)——紙質信息記載方式轉換為數碼存儲和交換;數字化(Digitalization)——工作任務和流程通過互聯網、社交媒體和物流網方式執行;數據化(Datafication)——以有質量的數據形式整理企業資產,在高質量數據分析的指引下組織企業資源和能力;數字孿生(Digital twin)——企業的存在和能力同時具有物理實在形式和虛擬數字形態。以這“4D”為基礎,企業重新審視核心業務流程。這個過程中,企業既需要等級結構,又需要扁平結構,而且在特定情境中,兩種結構共存,兩種結構隨情境轉換。這樣的靈敏組織結構要求超過傳統結構的支持能力。實踐中,已經AI賦能的核心流程由于得不到對應的組織結構支持,造成重重矛盾。

      第二,在可以完全自動化的工作任務環境中,機器主導決策;在涉及復雜人際關系的任務環境中,機器輔導人決策;在政治敏感性強的任務環境中,人主導決策;在探索性的任務環境中,人引導決策。因此,人工智能化企業既要求員工有不同程度的認知能力,又需要人機認知能力之間的高度協同。在前三次工業革命(機械,電氣,信息)中,人與技術都經歷了很長的磨合期,這次也不例外,甚至更嚴峻。兩種組織能力要耦合為一股,它必然經歷上上下下的波折。

      第三,AI賦能后,工作任務屬性發生變化,工作角色的權威性不同于往常。人工智能技術的顯著地位讓員工產生被邊緣化和工作異化的心理感受,這影響到員工對企業的忠誠度、歸屬感和工作承諾。

      為控制結構風險,人工智能化的企業摸索出一系列方法。首先,企業認識到核心流程與為客戶創造價值之間的密切關系。梳理出核心流程,然后實施數碼化、數字化、數據化和數字孿生。這四個步驟的每一步都試圖將之與人工智能的應用相結合。而組織結構設計必須服務于核心流程的人工智能化。建構人工智能賦能的核心流程,人機共處企業要思考下面幾個問題。

      第一,在人工智能支持下,企業規模不再是競爭優勢來源。規模不是競爭要素后,企業的核心競爭力出現什么變化?

      第二,與外部供應鏈上下游之間的協同成為一個競爭熱點和弱點。如此,我們管理專長有多少是放在與外部協同能力上?供應鏈之間因為緊密聯動而始終隱含風險,我們有沒有識別和應對的管理專長?

      第三,假如競爭者可以用人工智能算法快速復制我們的核心流程,我們在成本上的優勢和劣勢如何?假如有成本優勢,它能持續多久?

      第四,賦能后的核心流程是否能夠為新的客戶、新的價值形式服務?例如數據分析演變出預測服務、戰略情境分析等。

      第五,賦能后的核心流程是否為企業帶來跨界合作和聯盟的機會?例如,本來用于預測性物流的算法能力可以成為與運輸企業合作的資本。

      除了核心流程結構改造之外,為消除員工對人工智能的恐慌心態和抵觸行為,企業要率先從對員工能產生增強效果的工作任務開始。讓員工直接感知到人工智能帶來的好處。同時,企業應該選擇一組相關性高的工作任務和流程,厘清它們之間相關性的性質和方向。然后,利用人工智能,同步提升這一組工作任務的效率。如果只是提升單個功能的效率,只會對有強關聯的工作任務產生壓力,讓其他工作崗位的員工更加焦慮。同時提升一個群組的工作任務流程,能夠對各個流程中的員工表現產生正反饋,讓整個群組的員工有獲得感。圖4概括總結了結構風險的問題和解決方案。

      文化風險

      在人工智能對企業文化影響的討論中,一個有誤導性的趨勢是強調“數字信任”文化,認為包括區塊鏈在內的去中心化數字技術會根本性地改寫組織內部和組織之間的信任文化。這是一種不全面的認識。筆者曾經在本刊發文(《區塊鏈改造組織信任》,2018年第10期)指出,區塊鏈解決的是不信任問題。而信任與不信任不是一個共同維度上的兩個極端。消除或降低不信任當然會促進信任。但是,影響信任的因素有人們感知到的專業能力、仁慈和友善的品質,以及相互欣賞的情感。至少,到目前為止,人們還很難在相互欣賞的情感方面建立起與人工智能技術的關系。因此,強調用人工智能建設與客戶、消費者和員工之間的信任文化,是不全面的,甚至是一種誤導。事實上,但凡涉及到道德判斷和價值評估,消費者和員工對人工智能都有信任問題。這種文化風險將長期存在。怎樣建立人機共處環境中的團隊信任是這種文化風險中的突出問題。

      另一個文化風險是關于勞動價值和商品價值的。深圳郊區的大芬村是一個全球著名的“畫家村”,以模仿外國油畫作品知名。幾年前,模仿凡高畫了2萬幅作品的趙小勇先生終于有機會訪問歐洲。站在凡高原作面前時,趙先生才深深感受到原創和復制之間的區別。人工智能指數級提升企業生產的規?;?,其模仿再生產的能力影響消費者對產品價值的心理評估。機器人飯店的飯菜可能保持了大廚原創的色、香、味??墒?,消費者的心理感知是一個復雜且微妙的過程。缺少的一種氣氛會讓機器人飯店給人一種養雞場投喂的感覺。類似的價值評估也會發生在企業員工的心理活動中。在許多領域,工作越來越成為人的第一需要,是人定義組織身份和建立集體心理身份的必要功課。人工智能賦能后,當功課變得極其容易的時候,工作的異化和心理的空虛則演變為新的問題。企業是機器的組織,還是人的組織?這涉及到文化價值觀的風險課題。

      第三種文化風險來自于探索性和創新性工作任務的模糊性。人工智能容易在效率提升領域率先獲得成功,因為效率和成本范疇的因果變量關系容易指認,容易設計自動化流程。而探索和創新工作任務的戰略目標往往是模糊的、變化的、難以量化的。探索工作任務的表現更難定性和定量。這帶來人工智能化過程中的兩極分化現象。創新工作能否實現預先設定的目標還取決于許多偶然因素。這樣,人們更加愿意選擇能很快顯現具體表現的任務。組織的資源也會向成功結果可視性高的任務傾斜。長此以往,將損害企業的創新文化,影響企業持續發展。

      控制文化風險可以從下面幾個方面著手。首先,理解信任不僅要有技術支持,更要有人與人之間友好的互動,情感信任和專業能力信任同樣重要。人工智能技術在情感信任方面的功效是有限的。為克服人機共處企業環境中的團隊信任問題,可以從三個方面開始。

      第一,建立團隊成員之間對彼此能力的信任。認為隊員有執行任務的能力,可以依靠他們的專業能力,這是團隊信任的基礎。因此,要讓人工智能普遍地對每個員工賦能,避免機器不平均賦能加劇團隊員工的能力差別。

      第二,支持團隊成員之間積極的互助。在戰場上,戰友可能會冒著生命危險救助受困的伙伴。在商場中,隊員也許會放棄一些自己的工作業績,成全落后的伙伴。在人工智能的模型中,這些舉措會被標識為非理性的行為。但是,正是這樣的相關救助強化了團隊信任。企業要有機制識別互助行為,并可以置人性決策于人工智能決策之上。

      第三,鼓勵以團隊為建制,使用人工智能工具,培養對人工智能預測功能的使用能力。像任何專業領域一樣,團隊成員對技術的理解能力是有差別的,個人專業水平有高低。因此,使用人工智能過程中,判斷水平會參差不齊。如果以團隊為建制,并肩工作,集體判斷,不僅會提升個別隊員的判斷水平,也能夠增強全體成員對人工智能的預測功能的信任。

      在建立社會信任方面,企業要建立AI為人服務的價值觀。企業要利用正式和非正式的方式宣傳,讓人工智能為良善的社會關系服務。針對人工智能在支持效率活動方面表現突出的特征,企業高管要對探索性、創新性的任務有不同的規劃,對任務表現有對應的評估標準,對失敗的結果有“慶祝新鮮的失敗”的態度。需要強調的是,人工智能技術也同樣可以為探索創新任務服務,重點是在對結果變量的考核評估上。評估標準改變,照樣可以利用人工智能的增強功能。

      如何在人機共處企業推崇信任文化?IBM公司的做法有參考價值。首先,在董事會層面建立人工智能和倫理委員會,向全公司傳遞一個重要信號:人工智能是戰略大事件。第二,對于人工智能的開放和利用,向全體員工發布“信任和透明”指導原則,破除圍繞人工智能的迷思,幫助全體員工理解為什么、怎樣、在何處應用人工智能。第三,堅持與值得信任的外部伙伴合作,從源頭防范來自外部合作者的風險。2020年,IBM加入“人工智能倫理的羅馬倡議”,積極參與歐盟關于人工智能應用的規則制定,這為企業尋找可靠的合作者提供一個廣泛的朋友圈。第四,為人工智能技術建立開源代碼做貢獻。IBM有一個“公平AI”開源代碼工具箱(AI Fairness 360),這個工具箱幫助志同道合的外部合作企業建設一個信任社區。

      總之,人機共處企業的文化風險主要與社會信任、組織價值和創新戰略有關。人工智能對這三方面長期的影響不容忽視。圖5概括總結了文化風險的問題和解決方案。

      需要指出的是,上述四類風險不是單獨存在的。它們之間有極強的關聯性。當一類風險得到妥善控制后,其他三類風險的管理也會更加順利。四類風險之間的關聯性和性質則是未來值得研究的課題。人機共處的類型可能會有多種形態,不過,企業風控框架的基本維度具有穩定性。管理者可以根據形態的具體特征對風控框架做調整。

      結論

      人機共處時代的企業管理有兩個令人擔憂的現象:一個是對人工智能效益的重視遠遠高過對風險的關注;另一個是以單獨和割裂的態度對待系統風險問題。而這兩個現象又會反噬技術效益。本文建議用系統和辯證的態度看待人機共處的效益和風險,因為當代社會的樞紐性活動已經從如何生產與分配社會資源的問題轉移到如何實施風險管理的問題。

      已故社會學家烏爾里希(Ulrich Beck)在他的開創性著作《風險社會》中指出,風險的產生、外溢、分布、防范和控制已經成為現代社會的管理綱要,綱舉目張。他分析現代社會之前的社會形態有一個共同的特征,即圍繞著社會資源的生產和分配來組織人類社會。而技術的大發展已經使其從被利用的工具變成改造社會的力量。同時,與經歷過億萬年除錯過程的自然界不一樣,人造的技術尚在使用中除錯。因此,它必然帶來風險。技術力量越大,風險程度越高。這就是我們目前面臨的人機共處的世界的核心矛盾。我們的研究不過是理解和緩解這一核心矛盾的嘗試。

      有一種風險未被包含在上述框架中。它就是可能的極端不確定性,也是經濟學家奈特(Frank Knight)所定義的“無知的未知”(The unknown unknown)。人工智能是否潛藏對人類的滅絕力量?這個問題屬于“無知的未知”,即我們“不知道所不知道”的現象。藏身其后的極端不確定性可能帶來滅絕危機。牛津大學“人工智能研究中心”的博斯特倫(Nick Bostrom)指出,當我們看到極端不確定可能帶來滅絕危機時,一切已經太晚,命運將無法改變。有些技術信仰者認為這是聳人聽聞,他們相信一切皆可控制。只有讀過《百年孤獨》,人們才能體會那幻影般不可知的力量能如何扭曲制造光怪陸離的人生。待到能夠體會時,改變已經不可能。

      《百年孤獨》是一部拉丁美洲的魔幻現實主義作品。哥倫比亞作家加西亞·馬爾克斯(Gabriel Garcia Marquez)描述了布恩迪亞家族百年七代的興衰、榮辱、愛恨、福禍、文化與人性中無法逃避的孤獨。小說中的人物時而通鬼神,時而鐘情于科學技術。每一代人各有奇詭的折騰方式,卻總是以孤獨命終。無論他們如何上天入地,通鬼拜神,這七代人還是被神秘的外部力量籠罩。孤獨無意義注定是他們的宿命。

      了解歐洲外部力量幾個世紀以來對拉美社會的摧毀性打擊是理解《百年孤獨》的鑰匙。加西亞·馬爾克斯曾經近乎絕望地表示:“拉丁美洲歷史是一切巨大然而徒勞的奮斗總結,是一幕幕事先注定要被人遺忘的戲劇總和?!?518年,騎著高頭大馬的西班牙人科特斯(Heman Cortes)出現在墨西哥時,當地的阿茲臺克土著人完全懵了。從軍事技術到社會文化,歐洲對當地人而言是完全未知的新現象(unknown unknowns)。人數上有絕對優勢的土著人首先在思想上被征服,然后遭受肉體的殺戮而無還手之力。在拉美的場景里,看到極端不確定性出現之時已經是終場的前戲。

      人工智能會帶來另一幕拉美劇情嗎?我們寧可信其有,不可信其無!

       

      (作者鮑勇劍,系加拿大萊橋大學商學院終身教授,復旦大學管理學院EMBA特聘教授;涂威威,系第四范式副總裁,主任科學家;袁文龍,系加拿大曼尼托巴大學阿斯皮爾商學院創業學講席教授。本文首發于《清華管理評論》,作者授權界面新聞刊發。文章僅代表作者觀點。)

      本文為轉載內容,授權事宜請聯系原著作權人。

      評論

      暫無評論哦,快來評價一下吧!

      下載界面新聞

      微信公眾號

      微博

      鮑勇劍等:人工智能企業的風控框架

      如果我們看到人機共處的必然性,希望獲得人機共處的正面效益,那我們就必須同時關注人機共處的系統風險。利用人機共處效益的合適方式是同時提升識別和控制風險的能力。

      圖片來源:視覺中國

      文 丨鮑勇劍 涂威威 袁文龍

      風險代表著人們對負面影響事件的概率評估。風險因素也許來自外部力量,也可能由內部薄弱環節引發。風險對企業的存在、運營和發展帶來威脅。人機共處的企業中,人工智能作為外部和內部活動的樞紐中介,也必然成為各類商業風險集中出現的領域。

      在《常態事故》(Normal Accidents)中,已故社會學家佩羅(Charles Perrow)極有預見性地指出:在提高生產力的同時,技術創造了一個強關聯的系統,它必然制造風險。事故不再是意外事件,而是強關聯系統的常態。佩羅的預見在人機共處環境中得到充分體現。

      人工智能是一種系統能力,可以解釋和學習外部提供的數據,并利用數據學習能力去實現設定的目標,完成規定的任務。在此過程中,它能夠通過機器學習的反饋回路,不斷靈活調整和適應與外部環境的關系,以至于能夠在合適的時空情境下,作出合適的選擇。環顧左右,我們知道,人工智能已經深入到人類經濟活動的各個方面。

      據普華永道會計事務所估算,到2030年,人工智能及其應用對全球經濟會產生15.7萬億美元($15.7 trillion USD)的經濟影響,大約接近中國2021年的GDP($17.8 trillion USD)。除了規模,人工智能深入企業活動的程度也從點、線到全系統。以人工智能企業第四范式為例,其應用從增強企業單個功能發展到涵蓋產、供、銷、研、客服、物流全系統的智慧企業方案。普及的人工智能也制造了一個新型的強關聯系統,由此派生的管理風險對許多企業還似初識。

      因此,建立對人工智能企業風控的全面認知刻不容緩。本文意圖提供一個系統的風控框架,幫助企業識別人機共存現象中的新型風險。

      已故科學家霍金(Stephen Hawking)曾警示:人工智能會帶來人類生存層次的危機。在哲學上,人工智能確實提出許多宏觀科學哲學問題。在技術建模過程中,工程師會遇到各種各樣的數據代碼問題,引發系統錯誤。在公共政策方面,人工智能引發對社會控制和影響能力的合法性的關注。不過,這些不是本文的重點。人工智能已經被引入企業管理全系統,本文側重討論它連帶產生的企業管理風險。人工智能在企業戰略、日常運營、組織結構和企業文化四個方面都會衍生新型風險,將之綜合在一起,可組成一個人工智能的企業風控框架(見圖1)。

      公元前3500年,在美索不達米亞的幼發拉底河流域,人們每逢大事就會詢問當地巫師能否成事。巫師會評估正向和負面因素,并在泥板上標出比較分析的結果。中國古代的《易經》也為決策者提供未來情境的組合分析。它們可以被視為人類最早的風險思維和對外部災害的規避活動。不過,規避外部災害和風險管控有區別。前者是被動認識,后者代表人們的主動認知能力。

      風險,特別是技術風險,是一個現代概念。風險指的是可能發生的意外或失誤的概率,以及對計劃中的活動帶來的損害與沖擊。它與早期樸素的避禍意識有差別。避禍是假設災害來自外部環境因素,人們無法影響和控制,只能選擇躲避。風險是一個概率問題,對它的影響,人們可以防范、避免、降低、補償、恢復。簡言之,通過人們有意識的管理活動,風險能夠得到控制。

      本文建議的風控框架就是識別人工智能的連帶風險并加以控制的一套管理步驟。以下,先指出四類風險的問題性質,分析它們的來源,然后提出風控建議。因為人工智能對企業活動的系統改造還是一個進行時態現象,這一框架只能是基于現有情況的總結,并需要與時俱進。本文的貢獻在于匯聚零散的風險分析為一個系統框架,并為將來的批判和反思提供一個集中的靶向。

      戰略風險

      2018年5月25日,歐盟的數據保護規范(General Data Protection Regulation, GDPR)正式生效。許多AI公司猝不及防,不得不暫時停止在歐洲的業務。事實上,歐盟在2012年就頒布了規范,并說明生效時日。如果在歐洲有業務的公司董事會理解它對數據收集和使用的影響,企業是有足夠的時間采取技術措施,適應變化的。遺憾的是,許多企業的董事會成員缺乏人工智能知識,無法適時反應。

      董事會沒有在治理結構層面設計和推行有針對性的政策只是AI戰略風險的一個表現。另外兩個普遍的表現包括企業高管看不到AI改變商業模式,以及引入人工智能初期可能存在的價值沖突。

      例如,美國濱州的一個地方政府人文服務部與人工智能公司合作開發了“反虐待兒童”軟件 “AFST”(The Allegheny Family Screening Tool)。通過綜合各個部門的信息,這一軟件可以對本地兒童是否可能遭受家庭虐待作出風險評估,還能提出有預見性的干預措施??墒?,在實施時,發現一個重大問題。衛生部門接到緊急求助電話的頻率是預防軟件的一個重要參數。黑人家庭撥打醫療求助電話的頻率一般高于非黑人家庭,盡管對求助電話頻率參數作過加權,系統還是給黑人兒童受虐待以更高的風險值。當軟件推出后,公司和政府機構都受到各界嚴厲的批判。對這一有明顯種族歧視的技術分析后果,董事會無疑是監管缺失、反應遲緩的。

      造成董事會成員反應遲緩的一個根本原因是存在認知代溝。董事一般是事業有成的商業精英,他們的知識結構形成于10-20年之前。對于最近10年興起的人工智能,董事們缺乏必要的知識準備,存在認知代溝。和大多數管理者的認識類似,董事會成員了解AI能促進流程自動化、生產規?;?,能提高生產效率。但是,對AI的全系統影響以及外部監管的反應,他們有認知盲點。這直接體現在治理結構的缺陷上。治理結構涉及企業戰略中的大關系、長遠發展目標和根本規范。董事會成員的認知代溝致使他們忽略人工智能帶來的顛覆性變化。

      如果企業高管只是關注人工智能對生產效率和規模的正面效果,就可能造成決策短視。初期,改造現有流程的效率,降低成本,這是管理者對新技術的起始訴求。但是,隨著技術和應用的演變,高管必須要站在商業模式的高度思考,人工智能怎樣創造新的價值、新的客戶關系和新的競爭能力。從已經發生的實例看,高管需要理解人工智能不僅可以改變怎樣做,還能影響做什么的問題。做什么?怎樣做?在哪里創造差異化的價值?當人工智能直接觸及到這些問題時,企業需要重新想象自己的商業模式。

      另外,強大的AI技術有可能帶來道德風險,并有違于公司的核心價值觀。與過去的技術相比,人工智能更能夠刺激和培養特定的消費行為。而消費過度成癮的時候,它就成為一種道德倫理的挑戰。強大的AI技術還可能在服務特定客戶的同時,對制度規則和其他利益相關者造成間接、灰色、滯后性的傷害。

      一個典型的企業案例是“臉書”(Facebook)。臉書的后臺AI技術可以識別使用者的興趣偏好,并加大推送同一類型信息。許多患有厭食癥的青少年,因為不斷收到推送的同類信息而強化了厭食行為。在美國2016年大選過程中,一家名為“劍橋分析”(Cambridge Analytics)的咨詢公司與臉書合作,利用AI技術,控制社交媒體中的政治話題信息,影響選民的投票行為。公司的一些員工明確反對利用技術操縱選舉的做法。后來,劍橋分析被告上法庭,這些員工成為了法庭證人。

      在人工智能應用領域,商業實踐和公司價值觀相違背的現象屢屢出現。原因很多,其中最突出的一個是利用AI實現單一目標,缺乏制約和平衡。當AI被引入企業時,它往往與一個顯著的需求相關,例如識別和強化某種消費和信息使用習慣。但是,強大的AI技術也會帶來負面溢出效應,例如操縱政治的能力和制造病態消費習慣。它們與公司和員工的社會價值觀發生沖突,最終不僅離散人心,還可能給企業致命一擊。劍橋分析這家公司后來以破產告終。

      哈貝馬斯(Jurgen Habermas)說:真理就在比例中!對于越來越強大的人工智能,把握它的適度性不是一件容易的事情,特別是關系到主觀性極高的價值觀。人工智能企業也發現,沒有一付通用的妙方能解除AI涉及的道德風險。比較合適的方法就是始終保持關注,始終以反思和反省的態度看待技術的社會影響。為此,設立公司內部的倫理委員會,邀請外部倫理專家做第三方檢驗,借鑒行業經驗和教訓,是AI企業現行的風控實踐。

      另外一個有用的方法是做“蒙眼品嘗”(Blind taste)??煽诳蓸泛桶偈驴蓸吩浻羞^“蒙眼品嘗”的營銷方法,把商標拿掉,讓消費者直接品嘗味道來評估喜好。專家建議,借用同樣的邏輯,用不同的訓練數據建立人工智能預測模型,包括撥打緊急醫療電話的數據。然后,從模型中抽出特定性質的數據,例如緊急醫療電話,看模型是否仍然可以提供有效的預測。這個設計能解決模型某個參數造成的自我循環、自證合理的問題。

      人工智能的道德風險將始終挑戰管理者的認知。就像著名的道德困境——“滑輪車困境”(Trolley dilemma),是否讓滑輪車改道,實則是一個是否可以犧牲少數、救助多數的兩難選擇。無論在自動駕駛應用,還是自動化替代人工的管理決策上,人機共處的企業將不斷遇到兩難的道德困境。這要求最高決策者從戰略的高度正視這種風險,并通過集體反思,做出符合當地具體情況的選擇。涉及到人工智能的道德風險,人既是問題的制造者,也是答案的唯一來源。圖2概括總結了戰略風險方面的問題、分析和方案。

      運營風險

      AI應用在交通工具中已經很普遍了,可是,車主對AI的功能卻有截然不同的反應。車主可以接受AI對道路選擇的建議,但不太愿意選擇AI的自動駕駛功能。研究表明,人工智能時常遇到“真實性”偏見(Authenticity)的挑戰。在車主看來,路況建議的AI功能是一種“客觀”的真實,可以接受;而自動駕駛功能則涉及道德判斷的“主觀”的真實,一般難以接受。心理學家早就指出人在決策過程中受到多種偏見的影響,例如尋求確定的偏見(Confirmation bias)、感知框架的偏見(Framing bias)、歸因的偏見(Attribution bias)、錨定偏見(Anchoring bias)等。對人的認知和決策偏見,管理學已經逐漸摸索出一套對應和適應的方法。但是,對人工智能技術引發的新偏見,例如“真實性”偏見,管理學還沒有比較好的應對方法。在運營互動過程中,新偏見也連帶出新風險。

      加州伯克利曾經發布一份極有行業影響的報告,指出美國金融公司智能算法支持的服務比人工服務收費低40%,但算法對少數族裔申請的房屋按揭收取額外的利息。類似情況在英國和新加坡也出現過?,F在,各國對智能算法運用過程中的公正性有鼓勵政策,但是,是否執行和怎樣執行,還取決于金融公司的實際操作。因為監管者的專業知識水平滯后于人工智能企業,政策只能暫時鼓勵自我監管。這增加了企業創新的寬松度,但也帶來事后問責的風險。

      自我監管不盡人意的例子很多。2018年,網絡企業亞馬遜的人事招聘算法被發現存在性別歧視,自動降低女性申請人入圍概率。幾年前,蘋果公司的信用評級系統也出現對女性消費者的歧視。蘋果創始人伍茲尼亞克(Steve Wozniak)的信用額度是他妻子的10倍,盡管他們的財務和賬戶是完全共享的。這些錯誤不僅增加了運營中的法律風險,也不利于優化運營過程的效率。

      運營風險還發生在互動過程中。它包括內外利益相關者之間的互動。首先,它表現在不可理解和難以解釋的風險上。員工對人工智能自動給出的建議也許不理解;客戶、消費者對人工智能的反饋也會感到有失常理,不可理解。其次,它表現在難以舉證性上。對人工智能選擇決策的后果,系統本身難以在事后舉證它的合理性和合法性,這種情況在監管部門檢查和審計人工智能造成的不良后果時經常出現。

      運營風險還表現在內置的偏見上。人工智能的強化學習起始于訓練數據。如果訓練數據有偏見,人工智能會強化這種偏見。AI模型是工程師建立的,建模工程師自身的認知偏見也容易內置在系統中,最終造成負面效果。內置的偏見與能夠使用的訓練數據庫有關。企業在建立AI應用時,往往從內部的少數人成功的行為過程開始。而這些人的成功已經受到諸多社會因素影響,例如種族、教育背景、家庭收入、社會關系等。這些隱性變量也同時通過訓練數據左右AI的強化學習,并成為決策規則的一部分。

      互動過程的運營風險源不止是工程師,還有使用者。微軟曾經為推特打造了一個談話機器人(Chatbot),但很快就取消并下線。因為,在互動過程中,使用者各種各樣的污言穢語和種族歧視言論把談話機器人帶壞了。由此,我們看到,運營風險既可能來自內部,也可能來自外部。

      AI系統遭遇監管質詢時,難以舉證合理性。因為系統變量從千萬級到億萬級,很難挑選和分辨出是哪一個單獨變量導致決策失誤和不良后果。特別是監管本身有滯后屬性,一般發生在社會不良后果已經形成的時候,這為溯因舉證帶來困難。例如,螞蟻金服曾經能夠利用阿里生態中的各種數據,自動生成對小微企業的商業貸款決定。這個過程調動超過3,000個數據來源。如果有企業質詢阿里算法的合理性,螞蟻金服很難解釋怎樣由這3,000個數據來源推導出商業決策。換到一個嚴監管的環境,比如歐盟,這套算法就會立即遭遇監管危機,因為企業有責任解釋消費者獲得不同服務的依據。算法的難以解釋性成為運營風險的一個要素。

      導致不可理解性和難以解釋性的因素很多。概括起來,主要是下面幾個原因:一是機器運作邏輯和人腦思維邏輯不一樣;二是人的思維受有限理性和直觀情感規則影響;三是人的思考往往是線性推理的,抓大放小、有始有終,而機器則可以面面俱到,平行運轉,來回往返;四是社會互動過程的復雜動態特征,人工智能不一定能涵蓋社會文化中隱性和微妙的變化。

      簡而言之,人工智能運轉過程不需要也不依賴人的理解性,也不一定需要善解人意。對人而言,它是一個黑箱過程。這是AI機器學習強大的原因,但也造成互動過程中的不可理解性和難以解釋性。

      也是因為受到監管的倒逼,運營風險是各類風險中首先被重視的。過去,人們認為人工智能運營過程的黑箱是無法避免的技術特征?,F在,多種解決方案進入試錯階段。它包括提升運營過程可視化水平,用自然語言解釋代碼模型和運營過程,幫助監管者和消費者理解AI決策的依據和邏輯?,F在也已經有允許溯因、文件留檔和過程示警的機器學習模型。例如,IBM的開放源平臺(Watson OpenScale platform)已經可以支持決策溯源需求。另外,事先審核訓練數據庫的隱性偏見、內置識別偏見的變量、培訓提高工程師的社會意識等措施也在行業中推廣開來。

      消除工程師的自身偏見,也可以通過人力資源政策來推行。一些企業積極雇傭少數族裔、女性和新移民工程師,他們的世界觀和文化背景為企業多元化增添力量。多元化是對沖單一思維帶來的偏見的好方法。如軟件行業的萊納斯法則(Linus's law)所言:有足夠豐富的眼球,任何錯誤都是膚淺的。

      在降低運營風險的實踐中,法律領域相對比較積極。它與錯誤后果的嚴重性和監管的力度有關。法律領域的人工智能對當地具體情況、小數據和厚數據更加敏感。一個預測判斷減刑犯人是否會重新犯罪的算法不僅涉及到個人命運,還關系到社區安全。因此,法律領域的人工智能更重視以特征數據為中心,用特別的價值回歸模型(Shapely analysis)來訓練機器學習社區動態變量,避免廣譜性、通用算法帶來的預測錯誤。

      總之,人機共處企業中,運營風險一直會有,但是風險對沖的方法也層出不窮。圖3概括了運營風險的問題特征、來源分析和應對方案。

      結構風險

      組織結構為戰略服務。任務性質、決策角色和權威主導組織結構設計。當人工智能進入戰略層面后,傳統的結構設計就不能滿足新的戰略要求,這會帶來結構性風險。

      在本刊曾經發表的一篇文章《高維智慧企業的認知協同策略》(2021年第7-8期)中,筆者分析,人工智能化的企業中,任務分工的基本特征發生重大變化:從勞務分工(Division of labor)演變到認知協同(Cognitive collaboration)。任務決策出現決定(Decision)、反思(Deliberation)、設計(Design)和探索(Discovery)四種認知活動范疇。在AI支持下,大多數日?;顒佣伎梢宰詣踊?,可以由機器去“決定”,而其他三類認知活動,則要求不同風格和方式的人機協同。在人工智能的機器這一面,強化機器學習,有監管和無監管的機器學習、神經網絡機器學習等工具為人機協同展開一個廣泛的選擇區域。但是,受制于自然人的學習能力、有限理性(計算、記憶和感知能力的有限性)和去學習能力(Unlearning skill),自然人往往自陷于組織遺留下來的結構選擇。機器可以同時接受等級制結構、扁平結構或者二者任意程度的組合、變化,而員工有歷史性依賴,很難隨工作任務的境遇做靈活、共時的切換。當員工必須與機器協同工作時,結構風險便出現了。

      人工智能化的企業的結構風險主要體現在三個方面。

      第一,AI賦能后,組織的核心流程發生重大變化。它包括:數碼化(Digitization)——紙質信息記載方式轉換為數碼存儲和交換;數字化(Digitalization)——工作任務和流程通過互聯網、社交媒體和物流網方式執行;數據化(Datafication)——以有質量的數據形式整理企業資產,在高質量數據分析的指引下組織企業資源和能力;數字孿生(Digital twin)——企業的存在和能力同時具有物理實在形式和虛擬數字形態。以這“4D”為基礎,企業重新審視核心業務流程。這個過程中,企業既需要等級結構,又需要扁平結構,而且在特定情境中,兩種結構共存,兩種結構隨情境轉換。這樣的靈敏組織結構要求超過傳統結構的支持能力。實踐中,已經AI賦能的核心流程由于得不到對應的組織結構支持,造成重重矛盾。

      第二,在可以完全自動化的工作任務環境中,機器主導決策;在涉及復雜人際關系的任務環境中,機器輔導人決策;在政治敏感性強的任務環境中,人主導決策;在探索性的任務環境中,人引導決策。因此,人工智能化企業既要求員工有不同程度的認知能力,又需要人機認知能力之間的高度協同。在前三次工業革命(機械,電氣,信息)中,人與技術都經歷了很長的磨合期,這次也不例外,甚至更嚴峻。兩種組織能力要耦合為一股,它必然經歷上上下下的波折。

      第三,AI賦能后,工作任務屬性發生變化,工作角色的權威性不同于往常。人工智能技術的顯著地位讓員工產生被邊緣化和工作異化的心理感受,這影響到員工對企業的忠誠度、歸屬感和工作承諾。

      為控制結構風險,人工智能化的企業摸索出一系列方法。首先,企業認識到核心流程與為客戶創造價值之間的密切關系。梳理出核心流程,然后實施數碼化、數字化、數據化和數字孿生。這四個步驟的每一步都試圖將之與人工智能的應用相結合。而組織結構設計必須服務于核心流程的人工智能化。建構人工智能賦能的核心流程,人機共處企業要思考下面幾個問題。

      第一,在人工智能支持下,企業規模不再是競爭優勢來源。規模不是競爭要素后,企業的核心競爭力出現什么變化?

      第二,與外部供應鏈上下游之間的協同成為一個競爭熱點和弱點。如此,我們管理專長有多少是放在與外部協同能力上?供應鏈之間因為緊密聯動而始終隱含風險,我們有沒有識別和應對的管理專長?

      第三,假如競爭者可以用人工智能算法快速復制我們的核心流程,我們在成本上的優勢和劣勢如何?假如有成本優勢,它能持續多久?

      第四,賦能后的核心流程是否能夠為新的客戶、新的價值形式服務?例如數據分析演變出預測服務、戰略情境分析等。

      第五,賦能后的核心流程是否為企業帶來跨界合作和聯盟的機會?例如,本來用于預測性物流的算法能力可以成為與運輸企業合作的資本。

      除了核心流程結構改造之外,為消除員工對人工智能的恐慌心態和抵觸行為,企業要率先從對員工能產生增強效果的工作任務開始。讓員工直接感知到人工智能帶來的好處。同時,企業應該選擇一組相關性高的工作任務和流程,厘清它們之間相關性的性質和方向。然后,利用人工智能,同步提升這一組工作任務的效率。如果只是提升單個功能的效率,只會對有強關聯的工作任務產生壓力,讓其他工作崗位的員工更加焦慮。同時提升一個群組的工作任務流程,能夠對各個流程中的員工表現產生正反饋,讓整個群組的員工有獲得感。圖4概括總結了結構風險的問題和解決方案。

      文化風險

      在人工智能對企業文化影響的討論中,一個有誤導性的趨勢是強調“數字信任”文化,認為包括區塊鏈在內的去中心化數字技術會根本性地改寫組織內部和組織之間的信任文化。這是一種不全面的認識。筆者曾經在本刊發文(《區塊鏈改造組織信任》,2018年第10期)指出,區塊鏈解決的是不信任問題。而信任與不信任不是一個共同維度上的兩個極端。消除或降低不信任當然會促進信任。但是,影響信任的因素有人們感知到的專業能力、仁慈和友善的品質,以及相互欣賞的情感。至少,到目前為止,人們還很難在相互欣賞的情感方面建立起與人工智能技術的關系。因此,強調用人工智能建設與客戶、消費者和員工之間的信任文化,是不全面的,甚至是一種誤導。事實上,但凡涉及到道德判斷和價值評估,消費者和員工對人工智能都有信任問題。這種文化風險將長期存在。怎樣建立人機共處環境中的團隊信任是這種文化風險中的突出問題。

      另一個文化風險是關于勞動價值和商品價值的。深圳郊區的大芬村是一個全球著名的“畫家村”,以模仿外國油畫作品知名。幾年前,模仿凡高畫了2萬幅作品的趙小勇先生終于有機會訪問歐洲。站在凡高原作面前時,趙先生才深深感受到原創和復制之間的區別。人工智能指數級提升企業生產的規?;?,其模仿再生產的能力影響消費者對產品價值的心理評估。機器人飯店的飯菜可能保持了大廚原創的色、香、味??墒?,消費者的心理感知是一個復雜且微妙的過程。缺少的一種氣氛會讓機器人飯店給人一種養雞場投喂的感覺。類似的價值評估也會發生在企業員工的心理活動中。在許多領域,工作越來越成為人的第一需要,是人定義組織身份和建立集體心理身份的必要功課。人工智能賦能后,當功課變得極其容易的時候,工作的異化和心理的空虛則演變為新的問題。企業是機器的組織,還是人的組織?這涉及到文化價值觀的風險課題。

      第三種文化風險來自于探索性和創新性工作任務的模糊性。人工智能容易在效率提升領域率先獲得成功,因為效率和成本范疇的因果變量關系容易指認,容易設計自動化流程。而探索和創新工作任務的戰略目標往往是模糊的、變化的、難以量化的。探索工作任務的表現更難定性和定量。這帶來人工智能化過程中的兩極分化現象。創新工作能否實現預先設定的目標還取決于許多偶然因素。這樣,人們更加愿意選擇能很快顯現具體表現的任務。組織的資源也會向成功結果可視性高的任務傾斜。長此以往,將損害企業的創新文化,影響企業持續發展。

      控制文化風險可以從下面幾個方面著手。首先,理解信任不僅要有技術支持,更要有人與人之間友好的互動,情感信任和專業能力信任同樣重要。人工智能技術在情感信任方面的功效是有限的。為克服人機共處企業環境中的團隊信任問題,可以從三個方面開始。

      第一,建立團隊成員之間對彼此能力的信任。認為隊員有執行任務的能力,可以依靠他們的專業能力,這是團隊信任的基礎。因此,要讓人工智能普遍地對每個員工賦能,避免機器不平均賦能加劇團隊員工的能力差別。

      第二,支持團隊成員之間積極的互助。在戰場上,戰友可能會冒著生命危險救助受困的伙伴。在商場中,隊員也許會放棄一些自己的工作業績,成全落后的伙伴。在人工智能的模型中,這些舉措會被標識為非理性的行為。但是,正是這樣的相關救助強化了團隊信任。企業要有機制識別互助行為,并可以置人性決策于人工智能決策之上。

      第三,鼓勵以團隊為建制,使用人工智能工具,培養對人工智能預測功能的使用能力。像任何專業領域一樣,團隊成員對技術的理解能力是有差別的,個人專業水平有高低。因此,使用人工智能過程中,判斷水平會參差不齊。如果以團隊為建制,并肩工作,集體判斷,不僅會提升個別隊員的判斷水平,也能夠增強全體成員對人工智能的預測功能的信任。

      在建立社會信任方面,企業要建立AI為人服務的價值觀。企業要利用正式和非正式的方式宣傳,讓人工智能為良善的社會關系服務。針對人工智能在支持效率活動方面表現突出的特征,企業高管要對探索性、創新性的任務有不同的規劃,對任務表現有對應的評估標準,對失敗的結果有“慶祝新鮮的失敗”的態度。需要強調的是,人工智能技術也同樣可以為探索創新任務服務,重點是在對結果變量的考核評估上。評估標準改變,照樣可以利用人工智能的增強功能。

      如何在人機共處企業推崇信任文化?IBM公司的做法有參考價值。首先,在董事會層面建立人工智能和倫理委員會,向全公司傳遞一個重要信號:人工智能是戰略大事件。第二,對于人工智能的開放和利用,向全體員工發布“信任和透明”指導原則,破除圍繞人工智能的迷思,幫助全體員工理解為什么、怎樣、在何處應用人工智能。第三,堅持與值得信任的外部伙伴合作,從源頭防范來自外部合作者的風險。2020年,IBM加入“人工智能倫理的羅馬倡議”,積極參與歐盟關于人工智能應用的規則制定,這為企業尋找可靠的合作者提供一個廣泛的朋友圈。第四,為人工智能技術建立開源代碼做貢獻。IBM有一個“公平AI”開源代碼工具箱(AI Fairness 360),這個工具箱幫助志同道合的外部合作企業建設一個信任社區。

      總之,人機共處企業的文化風險主要與社會信任、組織價值和創新戰略有關。人工智能對這三方面長期的影響不容忽視。圖5概括總結了文化風險的問題和解決方案。

      需要指出的是,上述四類風險不是單獨存在的。它們之間有極強的關聯性。當一類風險得到妥善控制后,其他三類風險的管理也會更加順利。四類風險之間的關聯性和性質則是未來值得研究的課題。人機共處的類型可能會有多種形態,不過,企業風控框架的基本維度具有穩定性。管理者可以根據形態的具體特征對風控框架做調整。

      結論

      人機共處時代的企業管理有兩個令人擔憂的現象:一個是對人工智能效益的重視遠遠高過對風險的關注;另一個是以單獨和割裂的態度對待系統風險問題。而這兩個現象又會反噬技術效益。本文建議用系統和辯證的態度看待人機共處的效益和風險,因為當代社會的樞紐性活動已經從如何生產與分配社會資源的問題轉移到如何實施風險管理的問題。

      已故社會學家烏爾里希(Ulrich Beck)在他的開創性著作《風險社會》中指出,風險的產生、外溢、分布、防范和控制已經成為現代社會的管理綱要,綱舉目張。他分析現代社會之前的社會形態有一個共同的特征,即圍繞著社會資源的生產和分配來組織人類社會。而技術的大發展已經使其從被利用的工具變成改造社會的力量。同時,與經歷過億萬年除錯過程的自然界不一樣,人造的技術尚在使用中除錯。因此,它必然帶來風險。技術力量越大,風險程度越高。這就是我們目前面臨的人機共處的世界的核心矛盾。我們的研究不過是理解和緩解這一核心矛盾的嘗試。

      有一種風險未被包含在上述框架中。它就是可能的極端不確定性,也是經濟學家奈特(Frank Knight)所定義的“無知的未知”(The unknown unknown)。人工智能是否潛藏對人類的滅絕力量?這個問題屬于“無知的未知”,即我們“不知道所不知道”的現象。藏身其后的極端不確定性可能帶來滅絕危機。牛津大學“人工智能研究中心”的博斯特倫(Nick Bostrom)指出,當我們看到極端不確定可能帶來滅絕危機時,一切已經太晚,命運將無法改變。有些技術信仰者認為這是聳人聽聞,他們相信一切皆可控制。只有讀過《百年孤獨》,人們才能體會那幻影般不可知的力量能如何扭曲制造光怪陸離的人生。待到能夠體會時,改變已經不可能。

      《百年孤獨》是一部拉丁美洲的魔幻現實主義作品。哥倫比亞作家加西亞·馬爾克斯(Gabriel Garcia Marquez)描述了布恩迪亞家族百年七代的興衰、榮辱、愛恨、福禍、文化與人性中無法逃避的孤獨。小說中的人物時而通鬼神,時而鐘情于科學技術。每一代人各有奇詭的折騰方式,卻總是以孤獨命終。無論他們如何上天入地,通鬼拜神,這七代人還是被神秘的外部力量籠罩。孤獨無意義注定是他們的宿命。

      了解歐洲外部力量幾個世紀以來對拉美社會的摧毀性打擊是理解《百年孤獨》的鑰匙。加西亞·馬爾克斯曾經近乎絕望地表示:“拉丁美洲歷史是一切巨大然而徒勞的奮斗總結,是一幕幕事先注定要被人遺忘的戲劇總和?!?518年,騎著高頭大馬的西班牙人科特斯(Heman Cortes)出現在墨西哥時,當地的阿茲臺克土著人完全懵了。從軍事技術到社會文化,歐洲對當地人而言是完全未知的新現象(unknown unknowns)。人數上有絕對優勢的土著人首先在思想上被征服,然后遭受肉體的殺戮而無還手之力。在拉美的場景里,看到極端不確定性出現之時已經是終場的前戲。

      人工智能會帶來另一幕拉美劇情嗎?我們寧可信其有,不可信其無!

       

      (作者鮑勇劍,系加拿大萊橋大學商學院終身教授,復旦大學管理學院EMBA特聘教授;涂威威,系第四范式副總裁,主任科學家;袁文龍,系加拿大曼尼托巴大學阿斯皮爾商學院創業學講席教授。本文首發于《清華管理評論》,作者授權界面新聞刊發。文章僅代表作者觀點。)

      本文為轉載內容,授權事宜請聯系原著作權人。
      加勒比久久HEYZO|4444kk亚洲人成电影|色舞月亚洲综合一区二区|24小时日本在线www免费看

        <big id="h13nx"></big>

        <noframes id="h13nx">
        <output id="h13nx"><rp id="h13nx"></rp></output>
          <noframes id="h13nx">

          <b id="h13nx"><ol id="h13nx"></ol></b>