摘要:另一方面,人工智能管理更廣泛地關注數(shù)據(jù)中的信號及其驅(qū)動的結(jié)果。指導指導就是在人工智能不采取行動的情況下提出建議。這意味著許多任務都是由人工智能完成的,而人類則處于任務中進行處理和分析其他的任務。適應性這是人工智能處理不斷變化的情況的能力。
權力意味著新的責任
過去人們會研究一個過程,它的輸入和輸出,然后編寫可以自動化該過程的代碼。構(gòu)建此類軟件是以數(shù)字形式獲取知識產(chǎn)權的一種形式,直到現(xiàn)在它一直是一種主要由人類驅(qū)動的認知任務。如今AI正在編寫自己的軟件,從噪聲中提取信號,自己搞清楚很多規(guī)則; 它正在承擔數(shù)字化編碼世界的認知任務。人工智能正在徹底改變可自動化的內(nèi)容以及可以部署的規(guī)模。隨著新的領域出現(xiàn),也帶來了新的責任那就是就是確保人工智能正在為正確的目標服務。
現(xiàn)代的人工智能可以找出對應的模式,然后對對象進行分類,做出決策并評估結(jié)果。它可以使用反饋循環(huán)學習和適應新情況。這是非常棒的軟件。不需要花一分錢去請人做分析,然后在花錢請人去做一個軟件,然后花錢請人去驗證你的結(jié)果,最后發(fā)現(xiàn)到它沒有達到你的預期,再返回去調(diào)整軟件。這整個周期在大型組織中可能需要數(shù)年時間,但由人工智能驅(qū)動的設計合理的流程可以在幾天內(nèi)完成。它可以自我重新編碼,推演變化,并驗證它是否實際上是朝著你想要的方向移動 - 所有這些都是以超出人類能力的準確性和速度進行的。這相當強大。但也相當具有威脅性。
這種新方法正在以前所未有的規(guī)模向組織引入新的風險。編寫代碼的方式是顯示數(shù)據(jù)示例,而不是自己編寫或編輯系統(tǒng)。此時,對結(jié)果的監(jiān)控非常少,因為當前的數(shù)據(jù)治理領域僅涉及數(shù)據(jù)本身的質(zhì)量,完整性和安全性。另一方面,人工智能管理更廣泛地關注數(shù)據(jù)中的信號及其驅(qū)動的結(jié)果。
與人為驅(qū)動流程的數(shù)據(jù)相比,人工智能的運營流程有時會比過去好10倍或更快,從而導致以前從未見過的場景。僅從價值的角度來看,這可能會有些問題。但如果在向特定的消費群體銷售的方面會變得超級高效,雖然可能會將自己鎖在里面,而忘記掉市場的其他部分。所以你的模型是否關注到這些問題?
負責管理新資訊系統(tǒng)的機構(gòu)主要有三個工作重點:
準確定義代理要解決什么問題和目標,以及應該尋求的結(jié)果。這包括正確的績效指標,以及應提取的IP(洞察力,世界模型等)以及用戶和供應商之間的所有權梯度。
協(xié)調(diào)驅(qū)動模型學習和改進的反饋循環(huán),從原始集合到結(jié)果解釋以及與其他智能系統(tǒng)洞察力的連接。
評估風險,找出代理系統(tǒng)可能出錯的所有點。模型將在流程的每個階段如何進行自我評估?如何監(jiān)控自動化系統(tǒng)以確保它做正確的事情的?
讓人工智能學習和執(zhí)行汽車的基本功能一樣都是非常簡單的。挑戰(zhàn)在于它是否可以在所有不同的背景下這樣做,例如不斷變化的道路條件,暴風雨的天氣,行人等。使用數(shù)據(jù)示例進行編碼可以大大降低成本,但仍需要大量的人類的聰明才智來考慮如何應用它,管理人工智能系統(tǒng)的工作將更多地考慮人工智能是否正在處理全局。而管理價值創(chuàng)造和風險是治理框架的目的。
所以,我認為對人工智能的管理從內(nèi)到外都應該是可信的,而這里有一個人工智能管理的框架:
自我管理的水平
0.分離
你的組織中有一些活動是人工智能所不知道的。你需要將這些考慮到你的風險評估中,甚至分離的活動最終也會如何連接起來。例如:人工智能系統(tǒng)可以分析10年前制作的手寫筆記或舊的商店視頻片段獲取相關信息。
1.觀察
觀察是人工智能的基本實現(xiàn)之一,它收集和分類信息以驅(qū)動其他進程。它在觀察什么,關注什么或忽略的是什么?它收集的信息連接到哪些進程?示例:有一種人工智能系統(tǒng)可以觀看一場冰球比賽并記錄一些數(shù)據(jù),包括人類無法看到的統(tǒng)計數(shù)據(jù),例如支票的力量。
2.指導
指導就是在人工智能不采取行動的情況下提出建議。人工智能訓練仍然可以發(fā)揮強大作用,一定程度上歸功于我們對人類行為的了解。舉個例子:假如我在做脫口秀,而攝像機在看著觀眾,人工智能就可以分析他們的肢體語言以判斷他們是否感到無聊。它還可以告訴我觀眾喜歡什么和不喜歡什么,什么時候我可以嘗試講另一個笑話。
3.合作
在這種情況下,機器還不能完全的自動化運行,但仍然可以驅(qū)動大部分的場景。舉例:在保險索賠處理中,人工智能可以進行60%或70%的自動化任務。這意味著許多任務都是由人工智能完成的,而人類則處于任務中進行處理和分析其他30%的任務。
4.自主
當一個人工智能代理完全進行自我管理時,事情就會進行的特別快了,以至于人類無法參與到這里面來。人工智能將會調(diào)整系統(tǒng)、監(jiān)控結(jié)果和提供反饋。示例:這就好比是今天網(wǎng)絡安全或高頻機器人交易的大部分內(nèi)容,機器以超出任何人類監(jiān)督的速度自行制定大量的策略。
對不同的組織來說,對這些自我管理的水平進行分類也會有所不同,但這體現(xiàn)了它的廣泛范圍。
工業(yè)中的AI治理框架
以下是我對每個類別的含義解釋。每個組織都需要為每個部分考慮自己一般的原則,但也要將它們多帶帶應用于每個代理,針對特定情況制定具體規(guī)則。出于個人考慮,我將添加代理的角色、部署的需求、要注意的風險,對抗性治理模型的參數(shù),以及它如何與更廣泛的、現(xiàn)有的公司治理相關聯(lián)(尤其是圍繞數(shù)據(jù)和道德)。
性能
人工智能需要按照說明書的說法去做。也就是說,它需要正常運行并滿足期望。只有能夠以可預測和準確的方式執(zhí)行的人工智能才能夠獲得對其提供的實際結(jié)果的信任。
準確性
準確性是指人工智能的信心和能力,正確的將一個或多個數(shù)據(jù)點分類為正確類別的能力,以及基于這些數(shù)據(jù)點和分類做出正確預測,給出建議或決策的能力。準確性是相對的。您希望確定在給定的上下文中對你的業(yè)務或產(chǎn)品有多大程度的準確度。如果你預測呼叫中心的每分鐘的呼叫,70%準確率就已經(jīng)不錯了,但如果你試圖預測雜貨店本周的銷售情況,70%那可能就有點糟糕了
偏差
偏差在系統(tǒng)中存在的方式有很多種,而且永遠都無法完全消除。所有數(shù)據(jù)都是通過某種偏見,意圖或?qū)χ匾挛锏氖澜缬^來收集的。在許多情況下,可以在收集階段消除不需要的偏差。鑒于數(shù)據(jù)總是帶有某種偏差,這也是一個在模型中對其進行核算和控制的問題。重要的是要確保偏差不足以將結(jié)果影響到對業(yè)務有害的結(jié)果。根據(jù)應用程序和環(huán)境的不同,有幾種方法可以抵消AI中的偏差,包括添加更多不同的數(shù)據(jù)集和輸入,以及確保正確描述目標的子目標。
完整性
完整性的概念與“平衡”密切相關,盡管它沒有包含太多有害的結(jié)果,而是缺少一些有用的信息。不完整的人工智能會丟失一些數(shù)據(jù)的輸入,而這些數(shù)據(jù)的輸入會阻止它有效的執(zhí)行任務。例如,一個交通應用程序預測擁堵模式,但缺不考慮天氣的影響。是一個特定的關注領域,需要適當?shù)淖晕夜芾硭健?/p>
安全性
為了保護性能,人工智能需要確保過程、數(shù)據(jù)和結(jié)果的安全性。使人工智能不會受到敵對的數(shù)據(jù)、不可預見的場景、外部影響以及可能對其決策能力產(chǎn)生負面影響的操作的影響。
適應性
這是人工智能處理不斷變化的情況的能力。如果我要推出新產(chǎn)品和對手競爭,那么預測產(chǎn)品的可靠性以及調(diào)整人員配置的決策有多可靠?一個適當可以適應條件的人工智能可以在新的情況下用于相同的案例。確定閾值的有效措施可能是在部署之前就可以看到的情況的數(shù)量和多樣性。足夠多的的邊緣案例將表明該模型將隨著時間的推移而擴展,并且應該定期添加到訓練方案中。
對抗性強
一種特定類型的適應性是針對試圖破壞模型的代理(人或人工)。這基本上是網(wǎng)絡安全的重點。通過將人工智能暴露給具有惡意或甚至是目標不一致的各種情況或代理,組織可以在部署后遇到這些情況和代理之前做好準備。
隱私
在用戶交互的所有時刻都需要保證隱私。這包括用戶輸入的所有信息,以及在與人工智能交互過程中生成的有關用戶的所有信息。
IP獲取
知識產(chǎn)權是許多人工智能開發(fā)組織商業(yè)模式的核心。IP獲取的參數(shù)需要與他們驅(qū)動的業(yè)務價值掛鉤,以確保獲取了正確的東西,但他們還需要確定誰擁有什么。需要在供應商,員工,組織和最終用戶之間明確定義這些知識產(chǎn)權。什么構(gòu)成“正確”的權利分配取決于具體的環(huán)境,并意味著就數(shù)據(jù)的控制和所有權概念達成一致,而目前還沒有對此達成一致。在GDPR世界中,這些決定也需要越來越多地被披露。
受影響的用戶
通過定義這些IP的權利,任何支持人工智能的組織都需要注意不同信息的使用方式,以及影響不同級別的用戶。跟蹤數(shù)據(jù)流(即數(shù)據(jù)的來源和去向)及其在組織內(nèi)外的使用數(shù)據(jù)流對于保證隱私至關重要。需要有適當?shù)臋C制允許用戶將數(shù)據(jù)帶到別處(可移植性)或刪除他們的數(shù)據(jù)(被遺忘的權利)。
透明度
只有在正確溝通的情況下,才能建立對系統(tǒng)的信任。如果沒有關于價值觀、流程和結(jié)果的透明度,那么信任的建設將會是有限的。
可解釋性
關于可解釋性,我們目標不應該是暴露我們用于獲得某種結(jié)果的算法的精確內(nèi)部技術工作。相反,我們的目標應該是揭示為什么滿足或不滿足當前應用程序的某些標準。例如:自動駕駛汽車沒有看到一個小路標而撞上了它。這是為什么?因為它配備的特定傳感器不能處理路標上涂料的反射涂層。在這種情況下,自動駕駛?cè)斯ぶ悄苋绾尉_處理數(shù)據(jù)并不重要。重要的是事故是如何發(fā)生的,之后可以由用戶在事情發(fā)生的時候進行調(diào)整,然后由系統(tǒng)的管理員進行事后調(diào)整。
目的
從事人工智能工作的組織應記錄其目的,并使用某些理想價值標準(如人權,透明度和避免傷害)來限制它們。這不僅強制進行有意識的設計過程,而且聲明的意圖也確保用戶(無論是內(nèi)部還是外部)了解應該如何應用該工具。誤用該工具可能會破壞此框架中的所有其他注意事項。
這里有一些最后值得思考的東西
如果你想大規(guī)模推廣人工智能,治理絕對不能是事后諸葛亮。它必須是戰(zhàn)略的一部分并且有詳細的記錄。就我個人而言,我認為這將通過執(zhí)行不同的項目來實現(xiàn)。在問題/解決方案定義期間,需要與公司中的業(yè)務部門協(xié)作制定規(guī)則來治理。然而,無論誰負責組織中的網(wǎng)絡系統(tǒng),它都是最終的責任,他們需要為每個人清楚地定義它。
問責制
即使付出了最大的努力,事情也難免會出錯。良好的人工智能治理應包括問責機制,根據(jù)目標的不同,可以有很多選擇。機制可以包括貨幣補償(無過錯保險),故障發(fā)現(xiàn)和無貨幣補償?shù)暮徒狻栘煓C制的選擇還可能取決于活動的性質(zhì)和權重,以及發(fā)揮自主權的程度。系統(tǒng)誤讀藥品索賠并錯誤地決定不賠償?shù)那闆r可以通過金錢來補償。然而,在涉嫌歧視的情況下,解釋和道歉可能至少同樣重要。
道德與公司治理
合作的一個關鍵領域是與更廣泛的公司治理結(jié)構(gòu)進行合作,這是組織的道德指導來源。因為使用人工智能,組織有能力采取行動,而這些行動很難或不可能雇用人員去做。你可以使用一個非常人性化的、友好的機器人給你的每一位客戶打電話,并在不告訴他們這是一個機器人的情況下,提供更多的建議。你會這樣做嗎?這是一項神奇的工程技術,但它也帶來了一些道德問題。關鍵是,技術團隊不能確定支撐治理框架的道德規(guī)范,因為這是一個主觀問題。最有可能的是,治理委員會需要自己的道德委員會(如果還沒有委員會)來回答這些問題。
增強治理
我不認為人工智能治理能夠在沒有人工智能增強的情況下工作。治理可能需要自己的一群對手,它們的角色是用來測試和挑戰(zhàn)基礎架構(gòu)和系統(tǒng)。我認為這將會是下一代的監(jiān)管系統(tǒng),用于監(jiān)控所有治理考慮因素的穩(wěn)健性。他們將能夠積極的、強制的對決策進行解釋,獨立的衡量偏差和評估的完整性,也可能與公司治理和外部審計師進行不同的迭代。這些將是單元測試和持續(xù)的壓力測試,將跨組織推廣甚至強制執(zhí)行問責制。
當然,首先需要實現(xiàn)框架。將這些注意事項納入到代理的開發(fā)過程中,并開始在整個組織和用戶之間共享結(jié)果的做法。收益不僅僅是更強大的模型,而是避免了監(jiān)管陷阱,以及還讓所有用戶對系統(tǒng)擁有了更多信任。
本文作者認為隨著人工智能的發(fā)展必然會使人工智能擁有一部分人類的權利,而人工智能擁有了這些權利那么必然的也會要承擔一部分責任,人類是否需要讓人工智能擁有自我管理的能力,這一點是毋庸置疑的,人工智能肯定會擁有這個能力,而人類要做的是如果讓人工智能擁有了自我管理的能力后,可以做出對人類有益的事情,而不是將事情想壞的一面發(fā)展,而作者分析了人工智能自我管理水平的發(fā)展路線,首先是并沒有使用人工智能,然后是觀察、指導、合作、自我管理這五個步驟,而這五個步驟中,前三個是以人類為主導地位的,后兩個是以人工智能為主導地位,而人類對于人工智能的管理絕對是不可以等到以人工智能為核心的時候再去指定一套詳細的規(guī)則,那時候未免就有點晚了,所以作者探討了從性能、安全、隱私、透明度這四個方向中討論了應該如果去指定針對人工智能的管理框架,并且人們還應該在組織內(nèi)部中建立問責制度、道德管理以及加強治理的政策來使組織積極的應對人工智能的發(fā)展,使人工智能在未來成為可以幫助人類走向更好的工具,而不不是可能會成為人類災難的工具。
文章版權歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/20012.html
摘要:摘要導語近日,阿里云發(fā)布了智能媒體管理服務,通過離線處理能力關聯(lián)授權的云存儲,提供便捷的海量多媒體數(shù)據(jù)一鍵分析,并通過該分析過程構(gòu)建價值元數(shù)據(jù),更好支撐內(nèi)容檢索。標準統(tǒng)一,訪問接口統(tǒng)一為阿里云的標準。場景化一鍵式處理,提高易用性。 摘要: 導語 近日,阿里云發(fā)布了智能媒體管理(Intelligent Media Management)服務, 通過離線處理能力關聯(lián)授權的云存儲,提供便捷的...
摘要:華為云,從到開發(fā)訓練模型,通過極快和極簡實現(xiàn)普惠現(xiàn)如今技術概念火爆落地應用更是繁多,但開發(fā)呢是否困難到底有多痛據(jù)了解,大部分開發(fā)者的工作時間并不長,并且十有八九可能不是科班出身。 華為云EI ModelArts,從0到1開發(fā)訓練AI模型,通過極快和極簡實現(xiàn)普惠AI現(xiàn)如今 AI 技術、概念火爆、落地應用更是繁多,但開發(fā)呢?是否困難?到底有多痛?據(jù)了解,大部分 AI 開發(fā)者的工作時間并不長...
摘要:而這對于數(shù)據(jù)中心來說則是一種巨大的挑戰(zhàn)。顯然,這一切在目前仍未引起足夠的重視。自從Alpha GO戰(zhàn)勝人類圍棋選手以來,AI就成為了整個商業(yè)社會中熱度最高的一個名詞。在AI的背后是對傳統(tǒng)商業(yè)模式的巨大顛覆和對社會生產(chǎn)力的空前解放。雖然AI很可能在未來淘汰掉一部分重復性勞動很高的工作崗位,但因此所釋放出的勞動力將在未來把人類的創(chuàng)造力推向新的高峰。但除了已經(jīng)淪為陳詞濫調(diào)的AI光明未來,在實際的應...
摘要:的人工智能版圖人工智能版圖由應用平臺框架三大部分組成應用層是提供各種應用服務,比如平臺層是平臺。應用層主推三大成熟應用基于深度學習的圖像和視頻分析它能實現(xiàn)對象與場景檢測人臉分析面部比較人臉識別名人識別圖片調(diào)節(jié)等功能。AWS的人工智能版圖 AWS人工智能版圖由:應用、平臺、框架三大部分組成 AI應用層:是提供各種應用服務,比如Amazon Rekognition、Polly...
閱讀 1592·2021-11-23 10:01
閱讀 2982·2021-11-19 09:40
閱讀 3231·2021-10-18 13:24
閱讀 3485·2019-08-29 14:20
閱讀 2992·2019-08-26 13:39
閱讀 1287·2019-08-26 11:56
閱讀 2682·2019-08-23 18:03
閱讀 387·2019-08-23 15:35