24周年

財稅實務 高薪就業(yè) 學歷教育
APP下載
APP下載新用戶掃碼下載
立享專屬優(yōu)惠
安卓版本:8.7.11 蘋果版本:8.7.11
開發(fā)者:北京正保會計科技有限公司
應用涉及權(quán)限:查看權(quán)限>
APP隱私政策:查看政策>

生成式人工智能的風險管理:刻不容緩

來源: 正保會計網(wǎng)校 編輯:咕嘟 2024/06/04 10:18:39 字體:

本文編譯自GARP風險智庫Disruptive Technologies主題博客“Risk Management and Generative AI: A Matter of Urgency”一文。作者為Jim Wetekamp, 他是 Riskonnect 公司的首席執(zhí)行官,該公司是綜合風險管理軟件的領(lǐng)先供應商。他是公認的企業(yè)風險、供應鏈和第三方風險管理專家。

有 9% 的公司認為他們已經(jīng)為管理生成式人工智能風險做好了充分準備。

各機構(gòu)仍在摸索需要哪些生成式人工智能的保障措施。事實上,只有 17% 的機構(gòu)已經(jīng)正式對整個公司進行了關(guān)于生成式人工智能風險的培訓或介紹。但是,盡快掌控人工智能治理和風險管理符合機構(gòu)的最佳利益。

目前在工作中使用人工智能的員工之中,有一半以上是在未經(jīng)雇主批準的情況下使用的。員工渴望這些工具帶來的效率。在許多情況下,員工在雇主弄清楚政策之前就開始在工作中使用這些工具,這會給機構(gòu)帶來風險。另有 32% 的員工預計很快會將生成式人工智能納入他們的工作流程,這表明無論公司如何監(jiān)督,員工都會繼續(xù)采用這些工具。

現(xiàn)在是時候制定一些規(guī)則,以確保您的機構(gòu)能夠?qū)⑦@種新興技術(shù)看作價值和效率的驅(qū)動力,而不是將其視為風險的源泉。

機構(gòu)可以采取幾項措施,讓員工可在應用生成式人工智能的同時保護機構(gòu)免受潛在威脅。

數(shù)據(jù)隱私與安全

65%的公司表示,數(shù)據(jù)隱私和網(wǎng)絡安全問題是生成式人工智能工具的首要問題。這些工具通常會收集 IP 地址和瀏覽活動等敏感信息,從而導致個人身份被識別。如果數(shù)據(jù)處理不當或被列入數(shù)據(jù)泄露事件,就會造成巨大損失。

深度偽造技術(shù)的興起引發(fā)了更多擔憂,因為它可以在未經(jīng)本人同意的情況下創(chuàng)造出逼真的圖像和聲音。

人工智能工具還使犯罪分子能夠創(chuàng)建更復雜的網(wǎng)絡釣魚電子郵件和惡意軟件,并加速網(wǎng)絡攻擊。定期評估您的網(wǎng)絡安全戰(zhàn)略,確保其與人工智能的發(fā)展同步,并優(yōu)先考慮強大的數(shù)據(jù)隱私措施,如數(shù)據(jù)匿名化和加密。

不準確和錯誤的信息

即使沒有足夠的信息或內(nèi)容來提供準確的答案,一些生成式人工智能工具也會對提示做出回復。在這種情況下,人工智能算法會編造出一個答案,但仍會以肯定的口吻作出回應,這意味著你不能對所看到的內(nèi)容信以為真。

如果使用工具的用戶沒有牢記這一點并主動檢查回復的有效性,他們最終可能會根據(jù)不準確的信息做出決策,而 60% 的公司表示這是生成式人工智能的首要問題。這可能會導致聲譽問題和其他后果。

人工智能算法的開發(fā)者可以設(shè)定有多少答案是編造的,或者是否有答案是編造的。了解機構(gòu)正在使用的工具是如何開發(fā)的,并決定機構(gòu)愿意接受的誤差范圍。通常最好將誤差范圍設(shè)置為零,這樣模型就不會編造答案。沒有信息總比誤導性信息要好。

此外,優(yōu)先考慮引用信息來源的生成式人工智能工具,這樣用戶就能輕松驗證所提供信息的準確性和可靠性。確保您的人工智能政策設(shè)定了這樣的預期:用戶在傳遞信息或根據(jù)信息做出決策之前,一定要對人工智能生成的任何回復進行事實核查。

偏見和道德

人工智能模型可能存在固有的偏見,或者對其服務對象的群體不夠包容。這些算法利用歷史數(shù)據(jù)為決策提供依據(jù),并生成答案和內(nèi)容。這可能會帶來問題,因為在1970 年、1990 年、2010 年或 2018 年可以接受的事物與今天可以接受的事物是不同的。例如,如果人工智能模型使用幾十年前的歷史數(shù)據(jù)來做出當代決策,比如誰有資格獲得貸款,那么它可能會無意中反映出不公平的做法。

徹底評估您正在使用的人工智能模型。了解模型的編程方式和校準機制。主動質(zhì)疑和理解底層的訓練數(shù)據(jù)集。確保數(shù)據(jù)是最新的,并且反映了當今的社會標準。

重要的是,要持續(xù)監(jiān)控生成式人工智能的輸出,并確保從倫理和道德的角度來看,應對措施仍然具有相關(guān)性,并且符合機構(gòu)的政策和文化。

版權(quán)和知識產(chǎn)權(quán)

34%的公司對生成式人工智能相關(guān)的版權(quán)和知識產(chǎn)權(quán)(IP)風險表示關(guān)注。這些模型可能是在受法律保護的資料基礎(chǔ)上進行訓練,并生成類似于現(xiàn)有作品的內(nèi)容,如果用戶不給予適當?shù)氖跈?quán),就會導致潛在的版權(quán)、商標或?qū)@謾?quán)問題。法院正在探討如何將知識產(chǎn)權(quán)法應用于人工智能生成的內(nèi)容,但仍需要一段時間來解決這個問題。

保護您的知識產(chǎn)權(quán)。對員工進行培訓,讓他們對輸入人工智能工具的信息進行批判性思考。了解哪些員工和合作伙伴可以訪問您的知識產(chǎn)權(quán)和敏感信息,并制定明確的指導方針,規(guī)定哪些資料和數(shù)據(jù)不得輸入人工智能模型。

確保員工也注意如何將人工智能生成的內(nèi)容用于商業(yè)用途,以避免侵犯版權(quán)。及時了解并告知員工有關(guān)使用人工智能生成內(nèi)容的任何法律動態(tài)。

風險新時代

生成式人工智能的出現(xiàn)帶來了新的挑戰(zhàn)和機遇。生成式人工智能所帶來的效率使員工能夠?qū)W⒂趧?chuàng)造高價值的工作。

預計這項技術(shù)每年將為全球經(jīng)濟增加 4.4 萬億美元的價值。要獲得這些好處,公司需要更有效地掌握人工智能的風險,并有效地管理其使用方式?,F(xiàn)在就開始保護和升級您的業(yè)務。

以上內(nèi)容來源于GARP,如有侵權(quán)請聯(lián)系刪除。

免費試聽

  • Dyson講課清晰、有激情

    Dyson主講:講課清晰、有激情免費聽

  • Derek邏輯清晰,細致到位

    Derek主講:邏輯清晰,細致到位免費聽

  • Lu Lu活潑生動、思路清晰

    Lu Lu主講:活潑生動、思路清晰免費聽

  • Alex幽默和諧

    Alex主講:幽默和諧免費聽

回到頂部
折疊
網(wǎng)站地圖

Copyright © 2000 - www.galtzs.cn All Rights Reserved. 北京正保會計科技有限公司 版權(quán)所有

京B2-20200959 京ICP備20012371號-7 出版物經(jīng)營許可證 京公網(wǎng)安備 11010802044457號