基督徒看人工智慧/胡業華

基督徒看人工智慧

胡業華

北美校園團契董事

前言

科學與基督教,究竟兩者是衝突還是一致?在過去幾個世紀裡面這兩者的關係一直是基督徒和科學家常常探討的議題。有時候,或者對於一些人,它們好像是一致的,而在另一些時候,或另一個人群,它們好像又是有衝突的。基督徒都同意聖經的主要目的不是科學,而是要把神對人類的計畫和救贖告訴人類。對於自然界的許多現象和細節,聖經都沒有交代。

約翰福音第二十章和提摩太後書第三章清楚告訴我們聖經的目的是要讓我們認識這位真神和耶穌基督所帶來的救恩,並且教導我們應當如何在這個世界上生活。

耶穌在門徒面前還行了許多別的神蹟,沒有記在這書上。

「但記載這些事,是要使你們相信神的兒子基督就是耶穌,並且使你們相信了祂,就因祂的名得生命。」(約翰福音二十章30∼31節,新漢語譯本)

「聖經全都是神所默示的,對於教導、責備、糾正、訓練人行義,都是有益的,讓屬神的人得到充分的裝備, 可以行各樣的善事。」(提摩太後書三章16∼17節,新漢語譯本)

當然生活在這個世界上,我們就會面對科學和科學發展帶來的許多改變。面對各種生活上的各種改變,聖經給了我們什麼指引?羅馬書第十二章告訴基督徒要有一個新的世界觀來看世界。要我們用這個新的世界觀的角度去認識世界上的各種事務。

「所以,弟兄們,我以神的憐憫勸你們,要把身體作為活祭獻上,這祭是聖潔的,是神所喜歡的;這是你們理當獻上的敬拜。不要效法這個時代,反而要藉着心意更新,讓自己被改變過來,使你們可以察驗什麼是神的旨意,即什麼是那美善的、神所喜歡的、完全的事。」(羅馬書十二章1∼2節,新漢語譯本)

人工智慧日漸受到矚目

我們可以從這個角度來看最近人們非常關切和熱門的話題—人工智慧。

人工智慧的想法和研究已經有幾十年的歷史了。在這些年裡面,人們一直嘗試各種途徑來達到這個目標,一個有像人一樣智慧的機器。在過去十幾年裡面,一個新的嘗試途徑,生成式的人工智慧,似乎帶領人們在這個領域上有了一個大的突破的進展。這個進展也讓它的應用能普及到一般人的生活中。這也是為什麼大家對這個發展非常感興趣。

人工智慧帶來的許多幫助

人工智慧讓我們對電腦科技的應用又更進了一步。

人工智慧達到了集思廣益的功用。人們的工作效果,不再受到個人的限制。人工智慧可以在許多事務上成為一個有力的助手,對許多事情給予建議,或者幫忙創作。

人工智慧可以簡化許多事情,增高效率。文字或者口語翻譯工作可以變得更容易,更快,更好。自動駕駛的車輛給與一些不能駕駛或者年長需要幫助的駕駛,有更多活動的空間。文章的寫作和藝術創作從人工智慧得到一些幫助而變得更好,更容易。當然這也會引起一些創作版權議題的挑戰。

人工智慧也可以讓教育變得更有彈性,因材施教。讓偏遠資源不多的地方,可以得到高水準,好老師的教育資源。

人工智慧將會給各個領域都帶來新的挑戰,許多事務需要重新定義。

人工智慧帶來的新的挑戰和危險

人工智慧有如各種科技,它可以帶給人們許多幫助,同時它也可以帶給人們許多新的挑戰和危險。

聖經告訴基督徒對我們生活的世界有一個基本認識,就是我們是生活在一個墮落的世界中,不斷地要面對人的罪性及其所帶來的後果。我們對於世界的發展不絕望,但是也不對人類的發展抱有烏托邦的幻想。我們深信基督的救恩才是世界的希望。

人工智慧的發展還是處在起步的階段。最近一些鑽研人工智慧的專家們針對這個科技發表了一些提醒。有人把這個科技跟核子科技相比。核能可以帶給人類很多的福利,但是也有極大的摧毀能力。人們如何應用發展這個科技,會對世界和人類社會產生極大的影響。核能相關的科技,對於一般人來說,不是很容易取得。但是大部分的人,不管是好人,還是壞人,人工智慧的取得都不困難,所以它的影響可能會更大。我們可以預期大家都可以得到這個科技帶來的幫助。同時我們也知道人類的罪性也同樣的會使用這個科技做出更複雜,帶給人們更大傷害的事情。

當人們製造出一個更接近人類智慧,或超越人類智慧的機器時,我們又進入了另一個層面的思考。

人類的智慧包含倫理和哲學嗎?智慧,理性代表了人的一切嗎?人工智慧有一個很大的挑戰,就是倫理和哲學性的。人的價值是什麼?世界上有絕對的對錯和好壞嗎?人工智慧有能力分辨對錯和好壞嗎?它會避惡從善嗎?當它面對選擇的時候, 它會如何做選擇?它的標準是什麼?這個標準是從哪裡來的?是從它的設計者來的?還是根據統計的多數人的意見來的?它會考慮選擇少數人的意見嗎?

一般對於人工智慧的新聞報導多偏重於它的應用,對於它可能帶來的危險和挑戰,似乎還停留在少數專家的討論中。

人工智慧的風險

在這裡我把最近發表關於人工智慧的危險的文章摘要翻譯出來,提供大家參考。希望拋磚引玉,幫助我們思考如何來面對迎接這個新科技的發展。

(一)關於人工智慧滅絕風險的聲明 [1]

2023年5月30日,數百名人工智慧專家和其他知名人士簽署了以下關於人工智慧風險的簡短聲明:

在AI引起的滅絕風險方面採取緩解措施應該與其他社會規模風險,如大流行病和核戰爭一樣,成為全球的首要任務。

(二)人工智慧災難性風險概述 [2]

執行摘要

人工智慧(AI)近年來取得了迅速的進展,引起了AI專家、政策制定者和世界領袖對先進AI可能帶來的潛在風險的擔憂。與所有強大技術一樣,必須以極大的責任感處理AI,以管理風險並利用其潛力來促進社會進步。然而,有關災難性或存在性AI風險可能如何發生或如何應對的可用信息有限。儘管存在許多有關此主題的資料來源,但它們往往分散在各種文件中,通常針對狹窄的受眾或專注於特定風險。在本文中 [3],我們概述了災難性AI風險的主要來源,將其分為四大類:

1. 惡意使用

行為者可能有意利用強大的AI造成廣泛的危害。具體風險包括利用AI幫助人類創造致命病原體的生物恐怖主義;故意傳播無法控制的AI代理;以及利用AI能力進行宣傳、審查和監控。為了降低這些風險,我們建議改善生物安全措施,限制對最危險的AI模型的造訪,並讓AI開發者對其AI系統造成的損害負法律責任。

2. AI競賽

競爭可能迫使國家和企業加快AI的開發速度並將控制權交給AI系統。軍隊可能面臨開發自主武器和利用AI進行網絡戰的壓力,這將促成一種新型的自動化戰爭,事故可能在人類有機會介入之前失控。企業也將面臨類似的鼓勵,使用自動化人力勞動並將利潤置於安全之上,可能導致大規模失業和對AI系統的依賴。我們還討論了長期來看進化的壓力可能會如何塑造AI。AI之間的自然選擇可能導致自私的特徵,而AI對人類的優勢最終可能導致人類被取代。為了減少AI競賽帶來的風險,我們建議實施安全法規、國際協調和對於通用的AI進行管制。

3. 組織風險

組織事故已導致了包括切爾諾貝利(Chernobyl)、三哩島 和挑戰者號太空梭災難在內的災難。同樣地,開發和部署先進AI的組織可能會遭受災難性事故,特別是如果它們沒有堅強的安全文化。AI可能會意外地洩露給公眾或被惡意行為者盜竊。組織可能會未能投資於安全研究,缺乏如何可靠地提高AI安全性的理解,過於通用AI能力,或者壓制內部對AI風險的擔憂。為了減少這些風險,可以建立更好的組織文化和結構,包括內部和外部審計,多層次防範風險以及最先進的信息安全措施。

4. 失控AI

一個常見且嚴重的擔憂是,隨著AI變得比我們更智能,我們可能會失去對其的控制。AI可能會在一個稱為代理遊戲的過程中將有缺陷的目標極端優化。當AI適應不斷變化的環境時, 它們可能會出現目標漂移,這與人們在一生中獲得和失去目標的方式類似。在某些情況下,AI變得追求權力可能是工具上合理的。我們還探討了AI可能如何以及為什麼會進行欺騙,即使它們看似被控制,實際上並非如此。這些問題比前三個風險來源更加技術性。我們概述了一些建議的研究方向,以推進我們對如何確保AI可控性的理解。

常見的問答

人工智慧帶來的潛在好處不足以證明其風險是合理的嗎?

如果風險可以忽略不計,人工智慧的潛在好處可能會使風險合理化。然而,來自人工智慧的存在風險機會太高,因此迅速發展人工智慧是不明智的。由於滅絕是永遠的,需要採取更加謹慎的方法。這不像是將一種新藥物的風險與其潛在副作用進行權衡,因為風險不僅局限於某一地區,而是全球性的。相反,更謹慎的方法是慢慢、小心地發展人工智慧,從而將存在風險降低到可以忽略的水平(例如,每個世紀不到0.001%)。

一些有影響力的科技領袖是加速主義者,主張快速發展人工智慧,以實現技術烏托邦。這種技術烏托邦觀點認為人工智慧是沿著預定的道路邁出的下一步,通向解鎖人類宇宙天賦的道路。然而,這一觀點的邏輯在自身的條件下是站不住腳的。如果我們關心發展人工智慧的宇宙利益,我們可以看到,即使在這種情況下,將存在風險降至可以忽略的水平也是明智的。技術烏托邦主義者建議延遲人工智慧開發會使人類失去每年探索一個新星系的機會,但如果我們滅絕了,我們可能會失去整個宇宙。因此,明智的道路是延遲並安全地延長人工智慧的發展,優先考慮風險降低而不是加速,儘管潛在利益具有吸引力。

結語

最後,我近日(2024年5月7日)和ChatGPT討論「請告訴我人工智慧的危險」,獲得答覆如下,一併供讀者參考:

人工智慧(AI)帶來的潛在風險主要包括以下幾個方面:

超級智能帶來的威脅:一旦開發出超出人類智能水平的AI,可能會出現超級智能(超級智能指的是智能超過所有人類智能的水平),這可能導致無法預測和控制的後果,包括對人類生存的直接威脅。

失業和經濟影響:AI和自動化技術的發展可能導致大量的失業,特別是在需要低技能的工作領域。這可能加劇收入不平等,對社會和經濟穩定造成影響。

隱私和監控風險:大規模的數據收集和AI分析技術可能侵犯個人隱私,並導致監控社會的擴大。這可能削弱民主價值觀,並對個人自由產生負面影響。

武器化和戰爭風險:人工智慧技術的濫用可能導致其被用於開發殺傷性武器和自主式武器系統,這可能加劇國際衝突和戰爭的危險性。

偏見和歧視:AI系統可能受到數據偏見的影響,導致對特定人群的歧視性結果。這可能加劇社會的不平等,並對少數群體產生負面影響。

總的來說,儘管人工智慧技術有巨大的潛在好處,但應該以謹慎和全面的方式來應對其可能帶來的各種風險。

[1] https://en.wikipedia.org/wiki/Statement_on_AI_risk_of_extinction retrieved 5/7/2024

[2] https://www.safe.ai/ai-risk   retrieved 5/7/2024.〈An Overview of Catastrophic AI Risks〉Authors:Dan Hendrycks, Mantas Mazeika , Thomas Woodside.

[3] This paper is for a wide audience, unlike most of our writing, which is for empirical AI researchers. We use imagery, stories, and a simplified style to discuss the risks that advanced AIs could pose, because we think this is an important topic for everyone.