• <optgroup id="6005s"></optgroup>
  • <span id="6005s"><output id="6005s"></output></span>

  • 導航菜單

    人工智能的信任問題需要解決Vishwam Sankaran

    新德里:一位美國科學家說,從診斷疾病到對哈士奇進行分類,()有著無數的用途,但對該技術及其解決方案的不信任將持續存在,直到“最終用戶”能夠完全理解其所有過程。在費耶特維爾州立大學教授計算機科學的薩姆比特·巴塔查里亞說:“信任是人工智能的一個主要問題,因為人們是最終用戶,如果他們不知道人工智能是如何處理信息的,他們永遠不可能完全信任人工智能?!边@位計算機科學家的工作包括使用機器學習(M L)和人工智能處理圖像,他是最近在曼迪印度理工學院舉行的第四屆國際會議和第十九屆全國機器和機制會議(iNaCoMM2019)的主旨發言人。為了支持他的觀點,即用戶并不總是信任人工智能提供的解決方案,Bhat tacharya引用了美國西奈山醫院研究人員的例子,他們將ML應用于包含測試結果和醫生訪問等信息的大型患者記錄數據庫。根據《自然》雜志(Nature)2016年發表的一項研究,他們使用的“深度病人”軟件在預測疾病方面具有非凡的準確性,它發現了隱藏在醫院數據中的模式,表明患者何時會患上不同的疾病,包括癌癥。然而,研究人員說,“深度病人”有一個黑匣子。它可以預測精神疾病的發作,如精神分裂癥,研究人員說,這是很難預測的醫生。但這一新工具沒有提供任何線索說明它是如何做到這一點的。研究人員說,人工智能工具需要一定程度的透明度,以解釋其預測背后的過程,使醫生放心,并證明任何處方藥的推薦變化是合理的?!霸S多機器學習工具仍然是黑匣子,在沒有任何附帶理由的情況下做出判決,”醫生們在5月發表在BMJ臨床研究雜志上的一項研究中寫道。根據Bhat tacharya的說法,即使是基于AI的面部識別系統也可能帶有黑匣子?!坝捎诤谙蛔訂栴},人臉識別引起爭議。對于皮膚黝黑的人來說,它仍然失敗,并且在與面部數據庫匹配時會犯錯誤。有一些很好的例子,包括法律制度中使用案例的問題,”他解釋說。并非所有的算法都是值得信賴的。巴塔查里亞提到了加州大學歐文分校的一個項目,一個學生在那里創建了一個算法來分類哈士奇和狼的照片。這位UCI學生的算法幾乎可以完美地對這兩只犬進行分類。然而,在后來的交叉分析中,他的教授薩梅爾·辛格(Sameer Singh)發現,該算法只是根據圖像背景中的積雪來識別狼,而不是根據它對狼特征的分析。在引用另一個例子時,Bhat tacharya說:“如果你給出一個圖像分類算法,一個貓圖像,貓有一個背景。因此,算法可以說它是一只貓,基于它在背景中看到的與貓有關的東西?!彼忉屨f,在這種情況下,“問題在于該算法沒有將背景與前景完全正確地解耦”。有一個全新的領域處理“AI可釋性”,試圖解釋算法如何做出決策。例如,在倫敦,來自谷歌母公司Alphabet的子公司DeepMind的研究人員使用深度學習來分配治療優先位置,查看病人的眼睛掃描。他們發表在《自然》雜志上的研究報告指出,該系統進行了三維眼掃描、分析,并選擇了需要緊急轉診的病例。根據DeepMind研究人員的說法,該模型給出了每種診斷的幾種可能的解釋,對每種診斷進行了評級,并顯示了它是如何標記病人眼睛的部分的。Bhat tacharyya說:“谷歌在開發值得信賴的算法方面投入了大量精力,或者擁有更好的算法來仔細檢查深度學習算法正在做什么。他補充說,本地可解釋模型Agnostic解釋(L IME)算法是克服人工智能黑匣子的一種很有前途的解決方案。Bhat tachary a說,LIME讓研究人員分析人工智能系統用來得出結論的“輸入值”。他說,這種算法提供了透明度,首先探索了人工智能用來得出結論的那種特征?!币话?,我們感興趣的是知道哪些特征是最有影響力的決策從ML算法。例如,如果它說一張照片是一只狗的照片,我們可能會發現尖尖的或松軟的耳朵特征和典型的圓形狗鼻子的特征是

    這是最重要的,而身體的頭發不是很重要,“他解釋說。盡管黑匣子問題的解決方案正在出現,但仍然需要人為干預來解釋人工智能的決定?!拔蚁嘈?,在不久的將來,事情將遠非完美。我們不能指望人工智能決策的自動解釋是非常好的。我們將需要大量的人力監督解釋本身,即。相信解釋本身就會有問題,”巴塔查里亞說。PTI VIS

    鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。

    18禁止观看强奷视频