[AI] 防科技未來失控?機器人有三定律,Google 也針對人工智慧訂定「七大道德原則」!

文章分類: 智慧新世代, 智慧生活, 訊息.趨勢, 谷歌大神

 

最近幾年,人工智慧的發展速度已經慢慢超出大家的預期,這也讓不少人擔心過去科幻電影情節曾出現機器太過聰明,慢慢發展出自己的思想,甚至還會自主進化,最終反叛人類。也因此科幻小說作家「撒.艾西莫夫(Isaac Asimov)」在「我,機器人(I, Robot)」的作品中訂定了「機器人三定律」,試圖讓人工智慧的發展能有所限制。

 

 

Google 許也擔心人工智慧的發展會對人類有所侵害,因此在前幾天,Google CEO Sundar Pichai 在官方網站上發表了「Google 的人工智慧發展原則」,訂定了七個人工智慧技術發展的導德準則,包括人工智慧不會被運用在軍事武器或是侵犯人權與隱私,也不會在利大於弊的情況下研發可能造成人類傷害的科技。

 


圖:Google CEO Sundar Pichai 在 Google 官方網站上發表了 AI 科技應用的原則。

 

之所以會有這七大原則出現,主要原因在於先前 Google 受託為美國國防部,在「Project Maven」這個專案中提供 AI技術,來發展應用於無人機的人工智慧系統,而這個專案也造成四千多名員工聯名上書、數十名員工因此離職,就是要勸諫 Google 遠離「戰爭的生意」。

後來 Google 也因此妥善,未來合約結束後將終止這個計劃,也因此 Google 管理層也承諾發佈有關於人工智慧的道德原則。

 

Google 的人工智慧發展原則

  1. 對於社會有正面助益。
  2. 避免造成或加強不公平的岐見。
  3. 為了安全性需建立完整的測試流程。
  4. 對人類負責。
  5. 納入符合個人隱私設計原則。
  6. 堅持科學卓越的高標準。
  7. 適用於符合這些原則的用途。

 

Google 對人工智慧應用的限制

  1. 可能導致傷害的技術,存在於重大傷害風險的情況下,除非利益大過風險,否則不會進行,並同時會納入適當的安全限制。
  2. 主要目的或應用時會直接導致人身傷害的武器或其他技術。
  3. 發展過程會收集或使用違反國際公約規劃的監視技術。
  4. 技術本身的目的違反被廣接受的國際法與人權原則。

Google 旗下有多個人工智慧實驗室,已經進行了很多重要的學術研究,並透過像 TensorFlow 這樣的 AI 軟體庫將相關技術開放給其他開發者使用,不過也因為要控制 AI 的正常發展,Google 也明確表示,使用了 Google 資源開發人工智慧相關應用發者,都不能違背上述的幾個原則,Google 有權利阻止或停止這些科技發展。

至於這些「道德原則」是否真的能約束人工智慧科技走向「正確」的導路呢?這其實說不準,就如同電影「侏儸紀公園」中的著名台詞:「生命會自己找到出路」一樣,有沒有可能人工科技的發展也會像被重重電網限制的恐龍一樣,自己衝出重圍呢?

 

相關連結:

Google 發表 7 條 AI 該有的「道德原則」,確保科技發展在正確軌道上 – INSIDE 硬塞的網路趨勢觀察
AI at Google: our principles
機器人三定律 – 維基百科,自由的百科全書

歷史上的這一天,我還寫了…

About 阿祥

阿祥,本名秦庭祥(Axiang Chin),是一個專注於3C領域、尤其是行動通訊領域的部落客,自2004年10月開始經營部落格超過11年之久,長期關注3C產品資訊與應用-尤其聚焦於智慧型行動裝置、雲端服務應用、App評析與行銷、以及遊戲評測與產業趨勢…等議題。阿祥同時也是3C布政司共同創辦人,提供社群行銷、教學與體驗活動規劃…等服務,並曾擔任元智大學資訊傳播學系兼任講師、國立空中大學管理與資訊學系學科委員,並於三星學園長期擔任手機課程講師,也受邀前往多間大學、政府機關擔任講師,分享雲端與行動工具應用心得。 Google

Faccebook 留言載入中...

發表留言