Google執行長Sundar Pichai再強調:AI不會用在軍武

▲Google 執行長 Sundar Pichai 撰文解釋 AI 技術原則。。(圖/路透

記者黃肇祥綜合報導

根據先前的報導,Google 因爲與美軍的合作引來內部的離職潮,有員工擔憂 AI 技術被運用生產武器監控。Google 執行長 Sundar Pichai 今天就公開詳細的 AI 技術使用原則,明確指出不會將技術運用在對人造成傷害的武器與技術上。

文章開頭 Pichai 提到 AI 人工智慧於各領域的應用,幫助人們解決難題,但強大的技術也面臨風險,如何使用與開發將會對社會造成重大影響。Google 承諾該領域不斷髮展,會保持謙卑的態度面對開發工作,並且隨着時間調整 AI 研發的工作內容

Pichai 提出七大原則,包含:1. AI 技術應該對社會是有益的2. 避免加強、製造偏見與不平等3. 注重技術安全、確保安全性4. 對人類負責,保證受人類控制與監控5. 設計需注重隱私原則6. 捍衛科學的最高標準7. 提供符合上述原則的用途

▲Google 本次與國軍爭議,引發首度大規模離職潮。(圖/路透)

除了七大原則,還有四項禁止項目,包含不違反國際的技術公約國際法人權原則等,若可能製造巨大傷害,將在可以進行安全限制下進行,最後則是關於近期爭議武器的條款,則是寫道,AI 不會用在「直接導致人類被傷害的武器與技術」。Pichai 澄清,Google 沒有開發專用於武器的 AI 技術,仍會繼續與美軍保持合作,但會將技術運用在網路安全、人才培訓醫療保險與搜救。

根據《彭博社》報導,一名參與 Google 內部抗議聯署的員工表示,文章用語非常謹慎,但至少公司開始解決問題英國牛津大學的 AI 研究員 Miles Brundage 則表示,對於人類造成傷害這點相當模糊,因爲 Google AI 仍可以針對建築物與非人類項目進行網路攻擊。