西宁沐足都有什么服务
首頁 > 人工智能 > 正文

采用人工智能面臨的挑戰

2019-09-12 13:58:54  來源:企業網D1Net

摘要:人工智能正在進入更多的行業,越來越多的公司已經體驗到了實施人工智能的好處。盡管人工智能正在發展并越來越受歡迎,但許多企業仍然無法采用這種新技術改進業務。這是為什么?
關鍵詞: 人工智能 AI
  人們需要了解采用人工智能的挑戰,例如數據、人員和業務。
 
  人工智能正在進入更多的行業,越來越多的公司已經體驗到了實施人工智能的好處。盡管人工智能正在發展并越來越受歡迎,但許多企業仍然無法采用這種新技術改進業務。這是為什么?
 
  企業可能擔心人工智能實施的原因有很多。在2019年,O'Reilly公司出版了一本電子書,總結了對企業采用人工智能的調查結果,并列出了阻礙進一步實施人工智能的一些最常見因素。
 
  23%的受訪者表示,他們沒有進一步采用人工智能的主要原因是他們的公司文化不認可對人工智能的需求。其他原因包括缺乏數據和缺乏技術人員,以及難以確定適當的商業案例等。
 
  企業在實施人工智能時面臨哪些挑戰?
 
  正如人們所見,一些常見問題主要包括與人員、數據或業務一致性相關的問題。雖然每家公司都不同,并且也會以不同的方式體驗人工智能的采用過程,但也應該注意一些障礙。在本文中,將介紹人工智能實現中最常見的一些挑戰,并嘗試建議如何做好應對這些挑戰的準備。
 
  與數據相關的問題可能是大多數企業所面臨的問題。眾所周知,企業構建的系統只能與它給出的數據一樣好。由于數據是人工智能解決方案的關鍵要素,因此在此過程中可能會出現許多問題。
 
  1.數據質量和數量
 
  如上所述,人工智能系統的質量在很大程度上依賴于輸入的數據。人工智能系統需要大量的訓練數據集,以類似于人類的方式從可用信息中學習,但為了識別模式,它需要更多的數據。
 
  在任務上做得更好,執行任務的經驗越多,這是有道理的。不同的是,人工智能能夠以人類想像不到的速度分析數據,因此其學習速度很快。企業給它的數據越好,它將提供更好的結果。
 
  那么企業怎么解決數據問題?首先,需要知道已有的數據,并將其與模型所需的數據進行比較。為此,企業需要知道其將要使用的模型,否則,將無法指定所需的數據。
 
  列出企業擁有的數據的類型和類別問題:數據是結構化的還是非結構化的?是否收集有關客戶人口統計數據,購買歷史記錄,現場互動等數據?當企業知道其已經擁有的東西時,會看到所缺少的東西。
 
  缺少的部分可能是人工智能系統可以輕松訪問的一些公開信息,或者企業可能必須從第三方購買數據。某些類型的數據可能仍然難以獲得,例如臨床數據可以更準確地預測治療結果。不幸的是,在這一點上,企業必須做好準備,不是所有類型的數據都容易獲得。
 
  在這種情況下,綜合數據得以拯救。綜合數據是基于實際數據或從頭開始人工創建的。當沒有足夠的數據可用于訓練模型時,可以使用它。獲取數據的另一種方法是使用開放數據作為數據集的補充,或使用谷歌數據集搜索獲取數據來訓練模型。企業還可以使用RPA機器人來抓取公開可用的數據,例如維基百科網站上發布的信息。
 
  當企業知道自己擁有哪些數據以及需要哪些數據時,將能夠驗證擴展數據集的哪種方式最適合自己。
 
  2.數據標簽
 
  幾年前,大多數數據都是結構化的或文本的格式。如今,隨著物聯網(IoT)的發展,大部分數據都是由圖像和視頻組成的。這沒有什么不對,但問題是許多利用機器學習或深度學習的系統都是以監督的方式進行訓練,所以他們需要對數據進行標記。
 
  事實上,人們每天產生大量數據的事實,已經達到了沒有足夠人員來標記正在創建的所有數據的程度。有些數據庫提供標記數據,包括ImageNet,這是一個擁有1400多萬張圖像的數據庫。所有這些都是由ImageNet人工注釋的。盡管在某些情況下其他地方可以獲得更合適的數據,但許多計算機視覺專家仍然只使用ImageNet,因為他們的圖像數據已被標記。
 
  企業可以采用一些數據標注方法。可以在企業內部或外包工作,也可以使用合成標簽或數據編程。所有這些方法各有利弊。
 
  3.可解釋性
 
  對于許多“黑盒”模型,企業最終得出一個結論,例如預測但沒有解釋。如果人工智能系統提供的結論與企業已經知道的結果重疊并認為是正確的,那么就不會質疑它。但是如果不認同會發生什么?需要知道如何做出決定。在許多情況下,其決定本身是不夠的。醫生不能完全依賴系統提供的關于患者健康的建議。
 
  LIME(本地可解釋的模型不可知解釋)等方法旨在提高模型的透明度。因此,如果人工智能判斷患者患有流感,它還會顯示導致此決定的數據:打噴嚏和頭痛,而沒有考慮患者的年齡或體重。
 
  當企業獲得決策背后的理由時,更容易評估人們可以信任模型的程度。
 
  4.特定案例學習
 
  人們能夠利用從一個領域到另一個領域的經驗。這就是所謂的學習轉移,人類可以在一個環境中轉移學習到另一個類似的環境中。人工智能卻難以將其經驗從一種情況轉移到另一種情況。
 
  一方面,人們知道人工智能是專業的,它意味著執行嚴格指定的任務。它的目的只是回答一個問題,為什么人們還希望它能回答另一個不同的問題呢?
 
  另一方面,人工智能在一項任務中獲得的“經驗”對另一項相關任務可能是有價值的。有沒有可能利用這種經驗而不是從頭開始開發新的模型?轉移學習是一種使之成為可能的方法——人工智能模型被訓練來執行某項任務,然后將該學習應用到類似(但不同)的活動中。這意味著為任務A開發的模型稍后將用作任務B的模型的起點。
 
  5.偏見
 
  偏見是許多人所擔心的事情:人工智能系統對女性或有色人種“有偏見”的故事不時成為頭條新聞。但這是怎么發生的呢?當然,人工智能不能有惡意。
 
  那么如果人工智能可能具有惡意呢?像這樣的假設也意味著人工智能有意識的并且可以做出自己的選擇,而實際上人工智能只能根據可用數據做出決策。它沒有意見,但它從別人的意見中學習。這就是偏見發生的地方。
 
  偏差可能是由許多因素造成的,首先是收集數據的方式。如果數據是通過雜志上發表的一項調查收集的,人們必須意識到,其答案(數據)只來自閱讀上述雜志的人群,這是一個有限的社會群體。在這種情況下,不能說這個數據集代表了整體人群。
 
  探測數據的方式是產生偏見的另一種方式:當一群人使用某種系統時,他們可能擁有最喜歡的功能,而根本不使用(或很少使用)其他功能。在這種情況下,人工智能無法了解未使用的功能。
 
  但是在偏見方面,人們還有另外一件事需要考慮:數據來自人類。人們如果說謊或者散布成見。這種情況發生在亞馬遜公司的招聘時,他們的人工智能招聘人員被證明具有性別偏見。由于技術部門的工作人員中男性占主導地位,人工智能系統了解到男性申請者是有利的,并對包含“女性”一詞的簡歷進行篩選。它還降低了女子學院畢業生的等級。人們可以在一些關于人工智能失敗的文章中了解關于這個案例的內容。
 
  6.如何處理模型錯誤
 
  人工智能并不是沒有錯誤的。人類的偏見(或謊言)滲透到其算法中,有時結果是有偏見的。如上所述,數據集存在偏差的原因有很多。任何類似的問題都可能導致人工智能產生不準確的結果,例如預測。
 
  “糟糕的推理”是人工智能錯誤的另一個常見原因。隨著人工智能系統越來越先進,人們也越來越難以理解網絡中的流程。因此,當人工智能系統出錯時,可能很難確定出問題的確切位置。如果決定是自動駕駛汽車急轉彎還是撞倒行人呢?幸運的是,科學家為深度學習系統開發了白盒測試。它用大量的輸入來測試神經網絡,并告訴它的響應哪里是錯誤的,這樣它們就可以被修正。
 
  但是人工智能犯的錯誤總是那么危險嗎?當然,不總是這樣。這完全取決于人工智能系統的使用。如果人工智能被用于網絡安全、軍事用途、駕駛車輛,那么更多的問題就會更加危險。如果人工智能系統選擇男性而不是同樣技術熟練的女性員工,這是一個道德問題。但有時這些錯誤只是愚蠢的——正如2015年《連線》雜志上的一篇文章所說,他們描述的人工智能顯示了一個黑色和黃色條紋的圖像。人工智能卻判斷為是校車,但這是錯誤的。
 
  為了確保人工智能產生的錯誤無關緊要,必須確保高質量的輸入和適當的測試。
 
  7. 非技術人員對人工智能缺乏了解
 
  人工智能的實現需要企業管理層對當前的人工智能技術、它們的可能性和局限性有更深入的了解。不幸的是,人們被一大堆關于人工智能的神話和誤解所包圍,從需要雇傭內部數據科學團隊(人們應該知道,他們只為Facebook、亞馬遜、谷歌工作,以及如何工作)到科幻幻想中的機器人,以及機器人最終終結人類。
 
  人工智能技術的缺乏阻礙了人工智能在許多領域的應用。由于缺乏理解而導致的另一個常見錯誤是努力實現不可能實現的目標。
 
  那么如何解決這個問題?從教育開始。這可能聽起來令人沮喪,但并不是說技術人員必須成為一名數據科學家。只需瀏覽一下其行業,了解一些重要的參與者,看看他們部署了哪些用例,并了解人工智能的當前可能性。技術人員可以自己解決,也可以請求專家幫助。一旦掌握了一些知識,就可以更輕松地管理自己的期望,因為將了解人工智能能為企業做些什么,不能做什么。
 
  8. 缺乏實地專家
 
  為了開發一個成功的人工智能解決方案,需要技術知識和業務理解。不幸的是,這往往是其中之一。首席執行官和管理者缺乏采用人工智能所必需的技術知識,而許多數據科學家對他們開發的模型如何在現實生活中使用并不十分感興趣。
 
  知道如何將這項技術應用于某一特定業務問題的人工智能專家數量非常有限。總的來說,優秀數據科學家的數量也是如此。
 
  FAMGA(Facebook、蘋果、微軟、谷歌、亞馬遜)以外的公司正在努力吸引頂尖人才。即使他們試圖建立一支內部團隊,他們也不確定自己是否能找到合適的人才。如果缺乏技術知識,無法真正了解他們是否提供高質量的解決方案。由于預算有限,中小型企業可能無法采用人工智能。但是,外包數據團隊現在也是一種選擇。
 
  9. 缺乏業務一致性
 
  正如O'Reilly公司在圖表中所示,企業文化不承認人工智能的需求以及識別業務用例的困難是人工智能實施的最大障礙。識別人工智能業務案例需要管理人員深入了解人工智能技術、它們的可能性和局限性。缺乏人工智能技術可能會阻礙許多組織的采用。
 
  但這里還有一個問題。一些企業抱著過于樂觀的態度,沒有明確的戰略,進入了人工智能的潮流。人工智能的實現需要一種戰略方法,設定目標,確定關鍵績效指標,跟蹤投資回報率。否則,企業將無法評估人工智能帶來的結果,并將其與企業的假設進行比較,以衡量這項投資的成功(或失敗)。
 
  10.難以評估供應商
 
  正如招聘數據科學家的情況一樣,當企業缺乏技術知識時,很容易被愚弄。人工智能是一個新興領域,它特別脆弱,因為很多企業夸大他們的經驗,而在現實中,他們可能不知道如何使用人工智能來解決實際的商業問題。
 
  這里的一個想法是使用像Clutch這樣的網站來識別人工智能開發中的領導者。看看正在考慮的企業在他們的投資組合中有什么好處。另一種方法是邁出一小步,例如與人們認為具有前途的供應商的研討會。通過這種方式,將了解他們是否了解業務,擁有合適的技能,以及是否解決問題。
 
  11.整合挑戰
 
  將人工智能集成到現有系統中是一個比在瀏覽器中添加插件更復雜的過程。必須設置滿足業務需求的接口和元素。有些規則是硬編碼的。人們需要考慮數據基礎設施需求、數據存儲、標記,以及將數據輸入系統。
 
  然后,進行模型培訓,測試開發的人工智能的有效性,創建一個反饋循環,根據人們的行為不斷改進模型,并進行數據采樣,以減少存儲的數據量,更快地運行模型,同時仍能產生準確的結果。怎么知道它有效?怎么知道具有價值?
 
  為了克服可能的集成挑戰,企業必須與供應商共同努力,以確保每個人都清楚地了解流程。它還要求供應商擁有更廣泛的專業知識,而不僅限于建立模型。當人工智能以戰略方式實施并逐步實施時,可以減輕失敗的風險。
 
  在企業成功地將人工智能集成到其系統中之后,仍然需要訓練人們使用這個模型。他們如何接受模型產生的結果?他們如何解釋結果?企業的供應商應該建議每天使用其模型,并建議如何進一步發展人工智能。
 
  12.法律問題
 
  一些文章描述了企業實施人工智能之前需要考慮的一些法律問題。法律規章跟不上技術的進步,將會出現問題。如果人工智能造成損害怎么辦?如果由于人工智能的原因,某些東西被損壞或有人受傷,誰將對此承擔責任?訂購方還是開發人工智能的公司?
 
  目前沒有規則明確說明在這種情況下必須采取的措施。另一個問題是采用GDPR法規,數據已成為必須謹慎處理的商品,這可能是數據收集方面的挑戰:可以收集哪些數據以及以何種方式收集數據?如何以符合GDPR法規的方式處理大數據?
 
  敏感數據也存在明顯不敏感的問題。雖然它可能不會構成法律問題,但它仍然是一個可能會傷害企業的問題。一般而言,任何泄漏威脅到企業的地位或其形象的信息都應被視為敏感信息。
 
  想象一下,當企業員工培訓和課程數據泄漏時,就會出現這種情況。這些信息可能被誤解并傳播,將會損害企業的業務。
 
  如何應對人工智能采用的挑戰?
 
  人們必須記住,自己無法處理所有問題。首先要做的是熟悉人工智能——這樣,就更容易理解這個過程。然后,當企業創建人工智能策略時,就必須認識到需要注意的問題。
 
  通過戰略性和循序漸進的方法,企業將能夠更順利地完成人工智能實施過程。沒有錯誤是否可以實現?沒有什么是百分之百完美的,但企業需要為今后可能發生的問題做好準備。

第二十九屆CIO班招生
法國布雷斯特商學院MBA班招生
法國布雷斯特商學院碩士班招生
法國布雷斯特商學院DBA班招生
責編:baiyl
西宁沐足都有什么服务 埃及宝藏推币机秘籍 黑龙江十一选五基本走势图 浙江2o选5开奖结果 手机广东体育频道直播 福彩3d和值走势图彩宝网 我中彩票大奖真实经历 快乐扑克3开奖l全部查询 河内五分彩手机计划 六肖中持期期准免费公开 足彩14场复式192中奖 双面盘彩票怎么玩才会赢 六肖全中赔多少贴吧 区域股票指数 经典单机麻将二人麻将 甘肃省11选5技巧 诺成ta2怎么赚钱