畫下道德警戒線,博世制定內部人工智慧行為準則
AUTONET記者:編輯組(02/27/2020星期四)
博世日前發布具約束力的人工智慧(artificial intelligence, AI)行為準則,為其應用畫下道德警戒線。博世人工智慧倫理準則的基本原則為:人們必須保有所有人工智慧決策的控制權。博世集團執行長鄧納爾(Volkmar Denner)日前在今年於柏林舉行的博世聯網世界大會(Bosch ConnectedWorld, BCW)開幕式上表示:「人工智慧應為服務人們的工具。我們的人工智慧倫理準則,是員工開發智慧產品時的明確方針,希望以此讓公眾信任我們的人工智慧產品。」

人工智慧對博世而言,是至關重要的科技。博世的目標是到2025年,每一件博世產品都含有人工智慧或是在人工智慧的協助下開發或製造而成。博世期許其人工智慧產品皆為安全、穩健且可解釋,博世集團數位長暨技術長Michael Bolle說:「只有當人們了解人工智慧不是黑箱,對其信任度才可能提升,而信任將是聯網世界的關鍵品質要素。」博世希望製造出值得信任的人工智慧產品。該倫理準則的基礎是博世的品牌精神「科技成就生活之美」,結合其對創新的追求以及對社會的責任。博世計劃在未來兩年為兩萬名員工進行人工智慧的使用守則的培訓,其中包含負責任地運用人工智慧的倫理準則。

人工智慧具有巨大潛力

人工智慧是全球市場成長的重要推手。資誠(PwC)管理顧問公司推估,從現在開始到2030年,人工智慧將使中國的GDP增加26%,北美成長14%,歐洲則增加約10%。藉由評估大量資料、以演算法推導出結論,作為自動化決策的基礎,這項科技有助於突破交通運輸、氣候行動、醫藥和農業等多個領域的瓶頸,並最佳化其結果。早在導入具約束力的歐盟標準前,博世就已經基於聯合國《世界人權宣言》等文件,主動探討人工智慧應用可能衍生的道德問題。

人們必須保有控制權

在博世的人工智慧倫理準則規範下,人工智慧決不可在沒有仲裁者的情況下作出會對人造成影響的決策。此外,人工智慧應為服務人的工具,因此,凡是博世開發的人工智慧產品,人類都將對其決策將保有控制權。此規範適用於以下三種模式:第一種模式為人為控制(human-in-command),人工智慧產品純粹為輔助工具,協助分類物體或活體的決策支援系統;第二種模式為人為干預(human-in-the-loop),智慧系統則會自動做出決策,但人類能隨時推翻該決策。部分自動駕駛即為其應用實例:人們可以直接介入如停車輔助系統等決策過程。第三種模式人為監控(human-on-the-loop)則應用於緊急煞車等系統中,專家在開發此類產品時,會先定義部分參數作為人工智慧決策的基礎,但決策過程無法人為介入。工程師可於事後檢查機器是否遵守人類程式設計師設定的規則,並可於必要時更改參數。

共同建立信任

博世也期許其人工智慧倫理準則對公眾的相關討論有所貢獻。鄧納爾表示:「由於人工智慧將改變我們生活的各個面向,這類探討至關重要。」要建立公眾對智慧系統的信任,不僅需要技術上的專業知識,政策制定者、科學社群以及一般大眾間的密切對話也相當重要。因此,博世已經申請加入由歐盟執行委員會(European Commission)任命之人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence),該小組負責調查人工智慧的倫理相關議題。目前,博世全球七個人工智慧中心,以及與荷蘭阿姆斯特丹大學和位於美國賓州匹茲堡的卡內基美隆大學的合作團隊,皆致力於研究安全且值得信任的人工智慧科技。此外,身為巴登符騰堡邦Cyber Valley研究聯盟的創始成員,博世投資1億歐元於人工智慧園區的建設,屆時700名專家、外部研究員以及新創事業員工,將依同進駐園區。博世亦成立數位信任論壇(Digital Trust Forum)委員會,以促進國際具領導地位的協會及組織專家間的密切對話,其11名成員於2020年Bosch ConnectedWorld上聚首。Bolle說:「我們的共同目標是讓物聯網變得安全且值得信任。」

超過170名講者與80家參展廠商

博世聯網世界大會(2020年2月19至20日)逾80家的參展廠商參與,展示聯網世界當中的最新趨勢與發展。大會亦邀請逾170名講者,包含博世集團執行長鄧納爾、博世數位長暨技術長Michael Bolle、西門子副執行長Roland Busch、TÜV Süd集團董事會主席Axel Stepken與微軟雲端暨人工智慧事業群執行副總裁Scott Guthrie。大會的主要活動包括專題演講、大型展覽以及黑客松(hackathon)。今年博世第七度舉辦聯網世界大會,為世上最大的物聯網國際研討會之一。


 
 
02/27/2020新聞
後一天文章列表 前一天文章列表