Cloudera大中華區技術總監 劉隸放
在當今競爭異常激烈的環境中,全球各地的企業都在大力投資人工智能(AI),以獲得更大的競爭優勢。然而,隨著創新的加速,企業也深知倫理和監管在AI發展中的關鍵作用。德勤對100位企業高管進行的一項調查顯示,88%的受訪者表示其企業正在采取措施向員工傳達AI的倫理使用規范。根據騰訊研究院的一項調查顯示,個人隱私保護與網絡安全已成為公眾最為關注的風險因素之一。在覆蓋各行各業的3,000名受訪者中,38%的受訪者認為企業在應用生成式AI過程中可能存在侵犯個人隱私的風險,另有33.5%的受訪者認為模型的可解釋性和透明度問題亦不容忽視。
AI創新帶來新的倫理問題
借助AI的進步,我們已經從基于人工設定規則的決策系統,發展到通過海量數據訓練的復雜模型來自動定義規則、生成內容并做出決策。然而,不受約束的AI系統往往會優先優化預設目標,而忽視更廣泛的社會影響和倫理考量,這將逐漸削弱公眾信任。
盡管AI技術取得了顯著進展,但偏見和“幻覺”等問題依然存在,甚至引發了一些爭議事件。例如,2021年4月,荷蘭六名司機因“算法手段”被不公平解雇,導致歐盟根據《通用數據保護條例》(GDPR)對此展開調查。兩年后,英國幾名送餐員因位置數據被懷疑多收費用,并在幾乎沒有解釋的情況下被解雇。
類似的爭議事件在國內也內屢見不鮮,從因性別歧視導致的不公平貸款發放,到使用侵犯隱私的面部識別技術處理保險索賠。例如,一位中國博主的個人形象未經授權便被某AI應用使用,還引發了一場訴訟糾紛。這些問題的根源很大程度上在于AI的“可解釋性”。尤其是深度學習模型,其決策過程復雜且不透明,常被視為“黑匣子”,許多專家也難以理解其結論的形成機制。缺乏適當的人工監督和理解,這些帶有偏見的決策便可能會引發嚴重的負面后果。
隨著諸如OpenAI SORA AI視頻生成器等生成式AI創新()的涌現,AI在提升生產力和增強企業競爭力方面展現出巨大潛力。然而,這些工具也可能引發版權侵權等問題,甚至為濫用和虛假信息的傳播打開大門。因此,關注AI倫理變得比以往任何時候都更加重要。
公共與私營部門需攜手將倫理和監管融入AI
盡管ChatGPT等生成式AI工具都設有防濫用規則,許多用戶仍找到了繞過這些保護措施的方法。網絡犯罪分子甚至創建了自己的GPT,用于編寫惡意軟件和生成極具欺騙性的釣魚郵件。
目前,有效識別和阻止這類有害產出的工具和法律仍很匱乏。因此,公共和私營部門需要加強合作,通過更嚴格的監管降低AI濫用風險,并確保在模型開發中融入倫理考量。
為了構建合乎倫理的AI,需要將倫理原則、問責機制、透明度、可解釋性和良好治理融入模型。提升模型的可解釋性和倫理水平不僅能幫助解決當前AI的缺陷,還能顯著提高決策的準確性和有效性。
許多公共和私營部門實體正在共同努力推進AI的倫理建設。例如,澳大利亞近期投資1700 萬美元啟動了“AI應用計劃”,幫助中小型企業在利用AI提升業務決策能力。去年,新加坡政府與私營部門合作成立了“AI驗證基金會”, 以應對AI帶來的風險。該基金會今年又推出針對生成式AI的新框架,解決知識產權濫用等新問題的同時持續促進創新。2025年3月,中國《政府工作報告》提出將要持續推進“人工智能+”行動。在此背景下,自2023年起施行的《生成式人工智能服務管理暫行辦法》的重要性進一步凸顯。這些措施涉及內容監管和數據使用道德等領域,為負責任的AI發展提供了一個基礎框架。此外,具身智能(Embodied Intelligence)首次被納入國家戰略計劃,這表明在仿人機器人、無人機和倉庫自動化等技術可能在私營部門大規模應用的情況下,需要持續的監管。
隨著相關法規和倡議的陸續出臺,企業可以通過使用可信數據,為推進倫理AI的倫理建設貢獻力量。
設計合乎倫理的AI系統需要可信數據
構建值得信賴的AI系統離不開可信的數據來源。以準確、一致、潔凈、無偏見且可靠的數據為基礎,企業可以設計出符合倫理的AI系統,確保其始終產出公平、無偏見的結果。這樣的系統能夠幫助企業輕松發現問題、彌補邏輯漏洞、優化輸出,并評估其創新是否符合法規要求。
在Cloudera的AI倫理實踐中,數據隱私保護占據著基石地位。我們堅信,對數據隱私的尊重是贏得客戶信任的前提,也是平臺設計的核心原則。為此,Cloudera通過其開放數據湖倉(Open Data Lakehouse)架構,在數據層深度融合了統一的安全與治理能力(SDX)。這意味著隱私控制不再是上層應用的“補丁”,而是深入數據全生命周期的原生能力。它幫助企業在運用AI進行深度洞察時,依然能無縫地保護敏感數據、履行合規義務。這種貫穿數據生命周期的隱私保護設計,不僅提升了AI模型的安全性與透明度,更為企業構建值得信賴且符合法規的AI解決方案奠定了穩固根基。
如果企業想要開發合乎倫理的AI系統,可采取以下建議:
●關注意圖:AI系統僅基于訓練數據進行決策,缺乏道德準則和公平參照。因此,設計者需明確而謹慎地構建系統設計動機的意圖表示方法,在量化倫理考量的同時平衡性能目標。
●優化模型設計:設計良好的AI系統應避免偏見、因果關系和不確定性。企業應定期進行審查,以檢測是否存在模型漂移問題,即模型逐漸因數據過時而開始變得不準確,并廣泛建立因果模型以評估潛在負面影響。
●確保人工監督:AI系統雖能基于高質量數據做出可靠決策,但缺乏情商,無法處理特殊情況。最有效的系統應結合人類判斷與AI能力,企業需始終確保人工監督,尤其是在AI模型置信度較低時。
●加強安全性與合規性:以安全性和合規性為核心的倫理AI系統,不僅能增強系統可信度,還能加速其在企業中的普及,同時確保符合地方和區域法規。
●充分利用現代數據平臺:借助支持現代數據架構的數據平臺等先進工具,企業可以顯著提升其在數據和AI模型生命周期內的管理與分析能力。理想情況下,平臺應具備內置的安全和治理控制功能,使企業在大規模部署數據分析和AI時,仍能保持對AI驅動決策的透明度和控制力。