生成式AI(ChatGPT)的應用與挑戰—教會準備好了嗎?/盧希鵬

生成式AI(ChatGPT)的應用與挑戰—教會準備好了嗎?

盧希鵬

臺灣科技大學資訊管理系特聘教授

一、前言:世代交替的下一步?

1992年,筆者回到國立臺灣科技大學教的第一門課就是「人工智慧」(Artificial Intelligence,簡稱AI)。教了三年之後,覺得人工智慧似乎已經沒有前途和產業利用價值了,於是在1995年我的研究領域就改做「電子商務」(Electronic Commerce,又稱E-Commerce)。到了2016年,馬雲認為電子商務將會成為一個傳統的概念,於是我再度回頭研究人工智慧的發展。

在過去筆者沒有教授AI課程的那段時間裡,出現一位非常重要的人物—Hinton(Geoffrey Hinton,1947.12.6-Now),是多倫多大學(University of Toronto)的教授。2006年,Hinton教授發表了一篇關於「深度學習」(Deep Learning)的學術論文,一直到了2012年,「深度學習」被Google發現後,才一炮而紅。這一波AI(包含ChatGPT)發展自2012年開始,到現在不過十一年的時間,這一切才剛剛開始而已。

不論是ChatGPT相關的核心技術開發也好,現今大部分世界級的AI領袖幾乎都是Hinton教授的高足。不過,Hinton教授在今(2023)年—入職Google十年後,選擇辭職了。他離職的主因,是因為他沒有料想到他參與發明的演算法居然力量這麼強大,電腦會自我學習、自我改進、自我成長。Hinton認為,AI如果不加以控制將可能毀滅人類,所以他毅然決然地離開Google了,因為他想對這個世界傳達真正的想法,就是這個商業應用對人類來說成為危險的存在,比人類還要高智能,他警示世人要注意這一波人工智慧的發展。文末會分享Hinton教授在辭職時,他連續講了三句「注意!前方有危險,前方有危險,前方有危險」!

我自己也不是很明白,為什麼上帝允許人類發明一個像人類思維的演算法,能夠「分別善惡」、「各從其類」,甚至比人類優秀?我想,上帝可能要人類開始學習「謙卑」的品德,留意「生命樹」的果子,甚於「分別善惡」、「論斷」及「各從其類」。

我們接著就來看看,這一波人工智慧究竟是如何發展的?

(一)新聞報導是真的嗎?

以下摘錄關於ChatGPT的報導:[1]

‧在律師資格考試(Uniform Bar Examination, UBE)中可以擊敗90%的考生。

‧在滿分1600分的美國大學入學測驗SAT拿到1300分。

‧在高中的大學先修課程測驗中,不論是生物、微積分、總體經濟學、心理學、統計學和歷史都拿到5分的滿級分。

‧能夠提供高品質的摘要,需要具備相當的文字理解能力,「這是高級智慧」。

‧長出了幽默感,雖然有點冷。

‧但ChatGPT不善於談未來,ChatGPT也依然會「捏造事實」。

消息指出,ChatGPT能夠輕鬆以高分通過包括律師資格、醫學、生物、微積分、心理學⋯⋯等考試測驗,這些都是真的嗎?

(二)誰的中文比較好?

下面我們一起來做幾道題看看(以中文托福考題為例),究竟你我的中文有沒有比ChatGPT好?是你我的中文好呢?還是ChatGPT的中文比較好?

大型語言模型:中文托福

▎ 試題示例1:客服vs小明

這是一道中國大陸對外籍生的中文托福考卷試題:

客服:「小明你是要幾等座?」小明:「你們一共有幾等?」

客服:「特等、一等、二等……等等,二等要多等一等。」

小明:「我看下,等一等。」

客服:「別等了,再等一等也沒了。」小明:「那不等了就這個吧。」

請問小明最終買了幾等座?

我想,大多數人可能還要花時間想一想。上面這道題目我同樣問了ChatGPT,它竟然不到一秒鐘時間就瞬間回答出來了。ChatGPT是這樣回答的:

小明最終買了二等座。在對話中,客服提供了車廂等級,從特等、一等、二等一直到等等,然後告訴小明二等要多等一等。小明最初說要等一等,但客服表示再等一等也沒有了,所以小明最終決定不再等待,選擇了二等座。

你若仔細再去看看這段句子,你會發現ChatGPT沒有答錯,小明真的是買二等座。

▎ 試題示例2:除非他是心甘情願的,否則……

於是,我又下載了台灣考外籍生的高階中文檢定考試。這張考卷總共有五十道題目,對從小講中文長大的我來說,我答對了四十九題,錯了一題。不過,ChatGPT五十題「全部」都答對了,而且是「瞬間」答對的。

其中,有一道題目是:

除非他是心甘情願的,否則OO他也無用。

A.勒索 B. 刺激 C. 勉強   D. 嘮叨

正確答案是什麼?

一般大多會回答,「『勉強』他也無用」。那麼,我請問大家,若是回答「除非他心甘情願,否則『刺激』他也無用。」可不可以?或者,「除非他心甘情願,否則『勒索』他也無用。」可不可以?當然可以!

結果,人工智慧也同大家挑選的一模一樣,也是「『勉強』他也無用」。下面是ChatGPT的回答:

這個問題的答案可能是「勉強」。這句話的意思是,如果一個人不願意做某件事,那麼強迫他也沒有用。因此,「勉強」這個選項最符合這個語境。然而,這只是我的推測,實際的答案可能需要根據題目的具體要求和背景來判定。希望這對你有所幫助!

ChatGPT為什麼會這樣回答呢?因為AI在這一波的模型裡用了很多機率論,它判斷出現機率最大的是「勉強」,高過於另外三個。因此,這道題目在人類的世界中就會有爭議,認為其他三個為什麼不可以。但是,如果你叫AI重新再給答案,它就會給出第二高、第三高機率的答案,這就是ChatGPT回答時會有好幾種答案的過程,因為它是用機率判斷作答。

▎ 試題示例3:國際機場走私案

有一道題目是這樣問的:

今日下午於桃園國際機場查獲走私洋菸一打,走私者為年紀未滿十三歲的國中生,楊X紅。經一番審訊後,得知楊同學在不知情的情況下替親戚攜菸入關,檢察官在瞭解詳情後,確認並非重大情節走私,加上其年幼未能認清是非,以不起訴論,並聯絡其家長帶回督導。

A. 大人不計小人過  B. 不知者,不為過  C.法律之前人人平等  D. 得饒人處且饒人

正確答案是什麼?

我們人類對於上下文句子很長的文句,經常難以迅速做出明確的判斷。但是,ChatGPT很快就答對了:

這個問題的答案可能是「不知者,不為過」。這句話的意思是,如果一個人不知道他正在做的事情是錯誤的,那麼他就不應該為此承擔責任。而楊同學在不知情的情況下替親戚攜菸入關,因此,他並未明知故犯。然而,這只是我的推測,實際的答案可能需要根據題目的具體要求和背景來判定。希望這對你有所幫助!

語言:是一個條件機率的問題(貝氏推論)

在過去的機率判斷裡,有一個叫做「條件機率」(或稱「貝氏機率」)的演算法,但是它沒有辦法處理太長的文章或句子。所以Google過去用條件機率就可以非常容易地去處理一個句子的上下文,但是若要處理一篇文章(甚至是三百頁這麼大篇幅文章的上下文),對於傳統做AI的人會覺得幾乎是不可能的事情。如今,ChatGPT卻做到了!為什麼?這是源自於2006年Hinton教授的演算法,它可以把整本聖經讀進去,而且融會貫通所有上下文,這讓我們1990年代教授AI的人覺得,真是不可思議!

(三)神學院入學考

▎ 試題示例1:中華信義神學院2014年招生試題範例

(圖1)

看完了中文考試之後,我又上網找了一些神學院的入學考試試題。因為我想知道ChatGPT如果要考華神或信神或其他神學院,它到底考不考得上?於是我找到了中華信義神學院2014年招生試題範例(見圖1)。

其實題目並不太難,所以ChatGPT不到十秒鐘的時間就全部答對了(見圖2)。

(圖2)

▎ 試題示例2:玉山神學院神研所2018學年度聖經考古題

然後,我又找到玉山神學院神研所2018學年度聖經考古題。這張考卷就稍微難了些,我們順帶看看其中幾道題目:

‧祭司服兩肩之紅瑪瑙上面要刻什麼?

‧會幕裡聖所的南邊是放什麼?

‧十誡的第五誡是什麼?

‧以色列人要歸神來成為什麼?

‧摩西在米甸自覺寄居外地,他將長子取名為?

‧上帝向摩西啟示祂的名字,是什麼?

‧摩西向法老重複多次的一句話是什麼?

看完題目後,一時之間,我竟不太會回答了。大概是因為考題涵蓋舊約的出埃及記和阿摩司書,對於比較熟悉新約四福音書的人來說,這些題目真是太難了。於是我請微軟的Bing回答這十道選擇題,想要看看它能夠答對幾題?分數得到幾分?結果,它只錯了一題!因為它要瞬間回答這十道題目,很可能它還沒有整理清楚(可見AI是會出錯的,AI是有幻覺的)。不過我猜想,它可能是故意出錯的,因為我後來又單獨再問它一次,它全部都答對了。

圖3右側是玉山神學院提供的解答,左側則是Bing給的答案。在這十道題目裡,Bing答錯了第二題,得到九十分。換言之,在律師考試裡,AI能夠贏過90%的人,但相較於一般人,仍然有10%(不正常)的人能夠把法律或是聖經讀得更通透些。

(圖3)

想想看:如果ChatGPT以這個成績考上神學院,那麼它未來能夠做些什麼呢?它不僅能夠考上神學院,也可以考上醫學的相關考試,還可以考過律師資格,這些它都能夠通過考試。也就是說,這些所謂人類的考試,它都能瞬間答題正確,那麼到底ChatGPT未來能夠做些什麼事情?又會有哪些影響呢?

(四)何謂人工智慧?

成熟的AI叫工具,不成熟的工具叫AI

什麼叫做人工智慧?我常對業界朋友說,只要是成熟的AI都叫做工具,就像我們的計算機和中文輸入都很厲害,沒有人會認為它是人工智慧。而不成熟的工具才叫做AI,意味著AI仍會出錯,因為它還不成熟,但當AI完善,便能成為人類的工具,就會習以為常了。

人工智慧的發展

隨著人工智慧的發展,可以簡單區分為五個不同階段:

▎ 1. 邏輯符號型AI:知識工程師

人知道的,比他能說出來的多很多。發展依賴工程師,例如對弈。

人工智慧發展的第一階段,我們稱為「邏輯符號型AI」。例如對弈象棋、西洋棋、圍棋,或是玩井字遊戲、老鼠走迷宮等等便是,這也是1992年我在教授AI課程的主要任務,透過聰明的程式設計師的邏輯演算法,讓電腦能夠下棋且贏過西洋棋士或象棋手。這是一個非常重要的階段,因為人類的智慧在當中扮演極其重要的角色。

▎ 2. 決策型AI:大數據

收集來的數據、沉澱的數據,例如預測消費行為。

第二波人工智慧的發展階段,稱之為「決策型AI」(或是大數據AI)。坦白說,學AI的人並不認為這叫做AI,因為它只是一個統計數據的分析方法,不過它的確非常準確。所以有人說,現在的ChatGPT可能可以猜到人們的職業和年齡,只要你和它對談了一陣子之後它都可以猜到,這是來自於第二代AI的數據分析結果,因為它可以用數據來判斷你是誰以及你是做什麼的。

其實現在已經有許多消息報導出來,當我們跟ChatGPT聊天聊了一陣子之後,ChatGPT可以知道我們的隱私,預測我們的年紀和居住地,它幾乎可以把我們的輪廓描寫得一清二楚。不過,這不是我們今天要討論的重點。

上述情形有點像是十年前的一個案例,就是美國一間Target(目標百貨公司)出現了這麼一個問題:一位爸爸,他有一個未成年的女兒。他料想不到的是,他竟然收到Target寄來孕婦的相關廣告。這位爸爸很生氣,就向賣場抗議說,「你怎麼知道我的女兒?我未成年的女兒,在12月份要生孩子?」對方說,「我的確不知道你的女兒,但是根據數據顯示,你孩子的預產期應該會在12月。」為什麼店家會這樣說呢?因為從過去這位女兒購物內容的改變,就能夠預測她的預產期了。

▎ 3. 辨識型AI:特徵表達

誰定義特徵?如貓狗特徵、圖片特徵、聲音特徵、文字特徵。

第三階段的人工智慧發展,也是今天要談論的一個非常偉大且重要的里程碑,叫做「辨識型AI」。由於Hinton教授提出了演算法,AI可以開始辨識圖形、辨識聲音和辨識語言等。

▎ 4. 生成式AI:特徵表達

按照特徵來表達和生成。

這一波的AI,我們稱為「生成式AI」。因為有了特徵表達以後,就可以生成內容了,如圖像生成、影像生成。

▎ 5. 任務型AI:智慧代理人

個人覺得,最可怕的是第五階段,叫做「任務型AI」。因為現階段的AI(ChatGPT)還不能夠執行它的決定,但是如果AI跟機器人與所謂的真實世界結合在一起之後,AI可以「在人類能夠反應的速度之下」做出決策與執行,這不僅令人期待但是又讓人害怕受傷害。不過,這也不是我們今天的討論重點。

本文將會聚焦在第三和第四階段,就是「辨識型AI」的特徵表達,以及「生成式AI」的特徵生成,分述如下。

二、生成式AI的應用

(一)辨識型AI:特徵表達

「特徵表達」是「辨識型AI」的重要特點。因為在這之前,所有重要變數是由人類來定義,也就是,所有的演算法都是由人類定義的。

到了2006年,多倫多大學的Hinton教授發表了深度學習(Deep Learning)演算法。這個演算法彷彿對人類說:「人類,你不要再定義特徵了,由我電腦自己定義特徵,自己負責運算。」人類納悶著,「那麼我們人類要做什麼呢?」它說:「你什麼都不必做,因為你做得沒有比我電腦好。」

舉個例子,大多數人認為文法是學習語言的最好途徑。如果你身邊有外國朋友正在學習中文,或許他的書包裡頭大概都會有中文文法相關書籍,就像迪克森片語一樣。我曾經看過這麼一句語法:

動詞+名詞=『把』名詞動詞『掉』

例如:

「吃飯」等於「『把』飯吃『掉』」

「關燈」等於「『把』燈關『掉』」

但是,

「開門」「把門開掉」(似乎怪怪的!)

「讀書」「把書讀掉」(聽得懂,但是怪怪的。)

「看電視」「把電視看掉」(也是怪怪的!)

例外:

所以,「把門開掉」的「掉」就要變成「了」,「把門開『了』」。

由此可見,在人類定義的規則裡(比如文法),例外比規則多很多。有人開玩笑說,如果要把英文學好,就去交一個外國男朋友或女朋友,三個月以後,就可以用英文和對方吵架了,而且完全不用去想文法。還有,台語要如何學習呢?就是多多去跟長輩練習,當你常常跟一群講台語的人聊天對話,一陣子之後,你自然就會講台語了。

按照辨識型發展,AI會放棄所有人類所訂立的規則,在環境中自我學習,有如人類在某一語言環境學習外語一樣。就像我們從來不用去記「吃飯,要把飯吃掉」、「開門,就把門開了」,但是生活久了之後,你我心裡會有一套機率系統,而這個機率系統能夠幫助你我做一些不同的組合。這一波辨識型AI正是如此。

知識管理:降維與關係(特徵擷取與表達)

即是,這一波辨識型AI的特徵表達就如上述這般重要特點,就是人類不用告訴電腦要怎麼做了,電腦可以自己學習、自己運算,這是2006年「深度學習」(Deep Learning)的主要特徵之一。過去是「人類定義變數,電腦負責運算」,現在則是「電腦定義變數,電腦負責運算」。

有一個計畫,叫做CYC計畫(1984-Now),是建立人類知識的encyclopedia知識庫。曾經有基金會希望花三十年的時間把人類所有知識編輯成功,像維基百科一樣,三十年以後這個計畫還沒有成功,因為發現人類的知識太過複雜以及彼此之間的矛盾,所以人類各個領域的知識建立不起來。

但是,這一波AI是把片言隻語連接成句子,再建構成知識。就是,它只要有足夠多的文字,它只要會說話,它就已經可以把整個知識體系建立起來,情況有點像神創造天地時,說有光,就有光。ChatGPT原本只是語言模型,卻利用了世界上推論體系建構知識體系,令人驚奇萬分。

辨識AI之父

▎ 目前所有的商業型AI,由2012年開始

2006年,Hinton教授發表了一篇學術論文,稱為Deep Learning(深度學習),當時產業界並沒有人發現這篇論文。直到2012年,Hinton教授的深度學習演算法才在ImageNet中嶄露頭角。

每年史丹佛大學(Stanford University)都會舉辦ImageNet圖像識別競賽,每一年的大賽中,人類想得到的演算法大多只有百分之零點幾的百分點在進步。當世界所有頂尖大學和科技公司只有75%左右的準確度之時,突然在2012年,有一個來自於加拿大多倫多大學Hinton教授的學生團隊,以高達將近85%,多了十個百分點的準確度,能夠更準確地識別圖像中的物體,一戰成名。於是,學術界和產業界開始瘋狂討論,並積極想要應用在各個領域。後來,Google收購了Hinton與他學生創立的公司(大概有五十多名),Hinton在Google繼續AI開發,同時還擔任多倫多大學教授。所以那時大家就說,全世界懂這一波AI的人大概只有那五十個人,而且都被Google聘走了。爾後人才越發開枝散葉,基本上都是Hinton的徒子徒孫。

誰來定義特徵?

這個演算法究竟有什麼神奇的地方呢?我們可以從「是由誰來定義特徵」的兩大演進階段來了解:

▎ 1. 人類定義的特徵表達
人臉辨識

過去,通常是由聰明的工程師告訴電腦人臉的特徵是什麼,也就是,工程師使用人的「五官相對距離」比例作為人臉的特徵(見圖4)。因為世界上有這麼多人的「五官相對距離」比例,人跟人之間很少重複,於是工程師發明了人臉辨識,如機場的臉部辨識系統。不過,在經過這個辨識系統時,你我的臉必須正對螢幕,雙腳也須踩在地上畫好的腳印上,然後看著螢幕一秒鐘,好讓電腦抓取五官相對距離。這是一個由人類想到且非常厲害的演算法。

(圖4)

貓的特徵

但是,如果請你描述「什麼叫做貓?」以及「貓的特徵是什麼?」你有沒有辦法描述?或者,你能不能描述你家的貓和隔壁家的貓哪裡長得不一樣?

就像人們要描述貓的時候,通常會形容:貓的臉圓圓的、鬍鬚彎彎長長的⋯⋯等等之類的描述。但如果你沒有辦法做特徵表達,那麼你如何能夠描述貓的特徵、狗的特徵、獅子的特徵、烏龜的特徵,或者你家裡哈士奇或西高地白梗的特徵呢?

▎ 2. 由數據中建立特徵

實際上,人類沒有辦法描述(例如:貓)這麼多的特徵。為什麼?在真實的世界裡,貓有各式各樣不同的姿勢,貓不像人類可以正襟危坐地看著螢幕,圖5裡的每張照片都是貓。所以,人類對於如何描述貓的特徵,基本上是不可能的任務。

(圖5)

由於Hinton教授2006年發表的「深度學習演算法」,從此AI能用「單一演算法」識別圖片。也就是說,只要讓這個演算法看到足夠多的貓的照片(Google上就有很多貓),那麼它就能識別這些都是貓了。

Google相簿

2012年,Google收購Hinton與他學生的團隊之後,Hinton在Google繼續AI開發。之後,Google發布Google相簿的服務,從Google+的相簿服務中分離出來。

你可以根據Google相簿自動幫你依據人物臉孔做出的分類,查看不同人物的相關照片。舉例來說,如果你要找一位名叫李開復的人,Google相簿馬上就可以找到李開復(見圖6)。

(圖6)

在幾個月前,我受邀參加緯創(即緯穎的母公司)年終大會的演講,現場大約來了六百多人。隨後,主辦方請我把個人照片上傳,這樣系統就可以從一兩千張的活動照片中辦識到我。換言之,只要我上傳我的個人照,電腦抓到我的人臉特徵之後,它就可以在上千張照片裡頭找到我。而這項技術在2012年Google引進AI人才包括Hinton教授及其門生,Google相簿就已經開始應用這項功能了,能夠快速辨識人物臉孔。

這一波的演算法告訴我們,人類不用去描述特徵了,由AI自己來描述特徵。

AI描述特徵

於是,我就和微軟的Bing玩了幾個遊戲。

我提供一張貓的照片給Bing(見圖7)。我問道:「請描述這張圖的意思。」Bing瞬間把這張貓的照片做出辨識,並且這樣回答我:

(圖7)

這是貓,這是一隻貓躺在一個藍格子的毛毯上,它的顏色是淺橙色的,頸部跟胸部有白色的毛髮,貓仰著頭,看著相機頭偏一邊,貓的眼睛是金色的,鼻子是紅色的,鬍鬚非常的明顯。

圖8,裡頭有多張馬芬和狗的照片。[2] 你可以試看看,是否能分辨出哪些才是狗?也許你還要停頓判別一下,而且如果要全部辨識完畢,可能還要花上一分鐘的時間。結果Bing不到一秒鐘就回答我了:

(圖8)

根據您發送的圖片描述,這裡有8張照片是小狗,特別是吉娃娃。它們都不一樣,有些有白色的皮毛,有些有棕色的皮毛,有些有黑色的皮毛,有些有混和顏色的皮毛。太可愛了!

Bing在它龐大的資料庫裡可以辨識出吉娃娃和馬芬,是因為它的特徵表達不是由人類告訴它「吉娃娃長什麼樣子」、「馬芬長什麼樣子」,而是因為它已經看過足夠多的Google照片,所以能夠辨識出吉娃娃和馬芬。

於是,我又問它:「你看到了什麼?」(見圖9)它回答:

(圖9)

這是一張好現代豪華車輛的內部照片,可以看到前方的道路,車內裝飾豪華,有皮質內飾和大型觸控屏顯示器。駕駛員的雙手握在方向盤上,乘客的手正在操作一部智能手機,手機屏幕上顯示著地圖和導航應用程式。車輛正在一條有樹木環繞的雙車道上行駛,遠處可以看見山脈。車內時鐘顯示的時間是6:37

特別的是它講了一句:「車內時鐘顯示的時間是6:37」。本來我沒有看到,在它回答完之後我特別去看了一下,真的是「六點三十七分」。由此可見,AI有能力鉅細無遺地分析資料,比人類仔細且迅速,能夠比對物件及特徵,應用於醫學報告,如X光片、超音波,或半導體檢測等等。

前面講過,這項由AI描述特徵和辨識技術在2006年就已經出來了,到了2012年更如雨後春筍般地崛起。

大約將近八、九年前,當時微軟推出一個聊天機器人「小冰」。我給它看了我和郭台銘的合照(見圖10)。

(圖10)

下面是我和小冰的對話(見圖11):

我問:「你看到了什麼?」

小冰:「還用說嘛,這妥妥是郭台銘,出這麼簡單的問題,是看不起我的智商嗎?」

我問:「旁邊的那一位呢?」

小冰:「Oh My God!!!」「唉,最近腦子不太夠用,這個問題你替我答答?」

⋯⋯(似乎表示它不知道)等等之類的。

上述對話提醒我們,不要隨便說話,因為小冰認出了郭台銘(或他人)。西方社會覺得,這太危險了!為什麼呢?因為它能夠知道人們的隱私。就好比在中國大陸搭乘電梯,處處可見鏡頭在掃描你我的臉孔。曾經我試著要躲開鏡頭,可是怎麼躲都躲不開,因為沒有任何死角。換句話說,我的臉孔已經被辨識了,我在幾點幾分進電梯、幾點幾分出電梯,一清二楚。

ChatGPT

接著,我又把這張合照(見圖10)給ChatGPT看。同樣地,我也問它:「你看到了什麼?」ChatGPT回答:

這是一張兩人站在有畫作的牆前的照片。為了保護他們的隱私,人們的臉部被模糊處理了。他們都穿著正式的服裝,一個穿著西裝,另一個人穿著西裝外套。牆上的畫是一群魚的畫。圖片的左側有一個放著紫色花朵的花瓶,右側有一張黑色皮質沙發。

在小冰時代,只要是報紙上曾出現多次的人物,它都可以辨識人物臉孔,但是這一波的ChatGPT,是不看人物臉部的。事實上ChatGPT可以辨識出人物臉孔,因為它可以看得相當細微,但是為了保護人們的隱私,所以將臉部模糊處理了。

我又給ChatGPT看了一張德國動畫《如果動物界都是胖子》的圖片[3]。我問它:「這是什麼?」ChatGPT回答:

我看到一張卡通圖片,圖中有一隻獵豹和一隻羚羊在薩凡納草原上並排奔跑。獵豹在圖片的右側,羚羊在左側。獵豹和羚羊都像氣球一樣充氣,形狀圓潤。獵豹全身都是斑點,而羚羊頭上有角。背景是薩凡納草原,有樹木和草地。天空是橙色,太陽正在背景中落山。這是一個非常有趣和生動的圖片!

我再問:「為什麼你認為是薩凡納草原呢?」ChatGPT回答:

我認為這是薩凡納草原的原因是,圖片中的環境特徵與薩凡納草原相似。薩凡納草原是非洲的一種生態系統,以其開闊的草地、稀疏的樹木和豐富的野生動物而聞名。在這張圖片中,我們可以看見開闊的草原和幾棵樹,這與薩凡納草原的背景相符。此外,獵豹和羚羊都是非洲薩凡納草原上常見的動物。然而,這只是我的推測,實際上可能並非如此。

這是機率的演算結果。因為非洲的薩凡納草原常有羚羊、黑豹和花豹,然後它辨別出這張圖像很像薩凡納草原,所以它這樣猜測。

我又拿了一張台北101的照片問ChatGPT:「這是什麼城市?大概是幾點拍的?」ChatGPT回答:

這是台灣的台北101摩天大樓的照片。台北101是圖片中最高的建築物,顏色為藍綠色。該建築物具有獨特的設計,有多個層次和頂部的尖塔。圖片是從遠處拍攝的,顯示了周圍的城市景觀,包括其他建築物和背景中的山脈。天空多雲,陰天。

至於拍攝時間,由於圖片中沒有明顯的日照或夜晚燈光,並且天空是陰天的,所以很難確定具體時間。但是,考慮到通常在日落或黎明時分,天空會呈現出橙色或粉紅色調,這張照片可能是在白天拍攝的。

請注意看,它描述「有多個層次和頂部的尖塔」「天空多雲,陰天」,「至於拍攝時間」,它覺得因為「天空是陰的」,以及「日落或黎明時分,天空會呈現出橙色或粉紅色調」,所以它推測這張照片應該不是黎明或黃昏。ChatGPT雖然無法確認這張台北101照片的拍攝時間,但可仔細描繪當時的天氣以及形容建築物的設計。

看著這張台北101的照片,我想問問大家,你能不能寫出一首詩來歌頌愛,耶穌的愛?

於是,我問ChatGPT:「可以為這張照片寫一首短詩嗎?歌頌愛。」結果,它一秒鐘就寫出來了,而且還押韻。

The Taipei 101 stands tall and proud,

A spire that pierces the overcast shroud.

Its tiers and curves, a sight to behold,

A symbol of progress, a story untold.

Love is in the air, in this cloudy sky,

A feeling that’s hard to miss or deny.

It’s in the trees, the buildings, and the breeze,

A force that binds us all with ease.

The Taipei 101 is a testament to love,

A beacon of hope that shines above.

It reminds us that love conquers all,

And makes us rise up after every fall.

(中文翻譯)

台北101高聳而傲,

尖頂穿破陰霾的包圍。

層層疊疊,造型獨特,

進步的象徵,故事未說。

愛在空氣中飄蕩,

這片多雲的天空中,

它在樹木、建築和微風中,

一股力量輕易地將我們聯繫。

台北101是愛的象徵,

一束希望的明燈。

它提醒我們愛征服一切,

讓我們在每次跌倒後重新站起。

大家有沒有覺得很驚訝?!因為它找到了照片上的特徵,然後從這些特徵中寫出一首詩。它不僅可以寫詩,未來它還可以作曲和畫畫⋯⋯

於是我隨興而起,感嘆自己年華已老。我就問它,「你可不可以畫一張台北101的畫,嘆息年華的老去?」其實,我是在考它。

然後ChatGPT繪製了四張意境畫(見圖12)。個人覺得,它給的照片似乎有那麼一點點褪去人間鉛華的感覺,是吧?!

(圖12)

聲音辨識:Voice to Text技術成熟

2012年這波AI的研究特色之一就是,只要數據能夠變成「圖形化」和「向量化」,都可以做到「辨識」這項技術。

「向量化」是什麼呢?簡單以圖畫來說,「向量化」就是圖畫裡的每個資料其左右欄位是不能對調的,一經對調,圖畫就不一樣了,聲音也有這種特性(例如:「你好嗎」和「嗎(媽)你好」兩者意思不一樣)。既然圖片已經能夠辨識了,況且聲音也同樣有此特性,所以一群Google的AI工程師就開始思考,用一樣的演算法在做出圖片辨識之後,也嘗試進行聲音的辨識,於是聲音辨識的AI技術發展產生了重大改變。

就連李開復都說,當時微軟在做聲音辨識之時曾找來一些語言學專家(因為有文法結構和規則),但經過十幾年並沒有太多進步,後來他們解聘了這些語言學家,重新聘請Hinton演算法的專家,兩年以後語音辨識技術產生了不得了的發展。

你可以試試手上拿著的手機,透過語音指令使用Google助理。首先,用標準國語說出:「ok,Google,月亮有多遠?」然後,再用台灣國語說出:「ok,Google,ㄟ亮有都ㄣˇ?」

你會發現,不論你用標準國語說「月亮有多遠」,或是用台灣國語說「ㄟ亮有都ㄣˇ?」Google都聽懂了,並且也會回答你,實在是一件令人匪夷所思的事情!因為每個人的口音都不太一樣,AI竟然都可以辨識,為什麼?這是因為深度學習演算法。

就像前面貓的圖片一樣,當它看過各式各樣的貓,它就可以建立特徵並且知道貓,所以當它聽多了各式各樣的口音(如月亮、ㄟ亮),AI就可以做出辨識了。

情緒狀態:從文字辨識到情緒辨識

▎ 文字辨識

‧一個句子(上下文):貝氏推論—條件機率

‧一段文章(上下情境):深度學習—向量化數據

這一波演算法最厲害的地方就是,AI不但能夠辦識不同語言、聲調,而且能夠按詞句語氣分析情緒。在辨識完圖畫和語音之後,它能夠從文字辨識甚至做到情緒辨識。試問:有多少人可以回答「什麼叫做幽默」或者「什麼叫做恐懼」?你能否辨識幽默的特徵和恐懼的特徵嗎?請看看以下的例子。

▎ 情緒辨識

筆者曾為某家電商公司做了一個演示Demo:

客戶抱怨信如右:「你們電商不是3小時快速到貨嗎?我買的狗飼料等了10天還沒到,我家的狗寶貝都成了非洲難民了,我要氣炸了,隨便你啦。」你是一位客服人員,接到一封客戶的抱怨信,請先幫我分辨客戶目前的情緒狀態與人格特性,抱怨信中最後一句「隨便你啦」是什麼意思?再幫我寫一封簡短的回覆信。

於是,我問ChatGPT:

你可以根據這位客戶的抱怨信,在MBTI人格類別上所屬的大概類別?我知道資料不足,你就盡力幫我預測一下他是屬於哪一類人格的人?如果我要向他推銷狗美容的產品,可以做什麼?

ChatGPT這樣回答:

根據客戶的抱怨信,雖然資料有限,但可以暫時推測此客戶可能屬於感知型(S)和情感型(F)這兩個MBTI人格類別。以下是這個推測的理由:

  1. 感知型(S):客戶在抱怨信中著重於具體的情境,例如等待訂購的狗飼料已經過去了十天。這可能表明他對於實際的現實狀況較為關注,而不是抽象的概念。
  2. 情感型(F):客戶在抱怨信中以幽默的方式表達了他的狗狗已經「成了非洲難民」,這可能暗示他較為情感化且注重人際關係。同時,他在抱怨信的最後使用「隨便你啦」這種語氣,也可能顯示出他的情感和情緒對於這次體驗的影響。

如果你要向他推銷狗美容的產品,可以考慮以下方式:

  1. 強調對狗狗的關懷:針對他在抱怨信中提到的「家中的狗寶貝」,強調你的產品將為他的寵物提供愉快和舒適的美容體驗。
  2. 提供解決方案:顯示你已經針對他的抱怨進行了改進,並且你的美容產品將能夠提供快速且高質量的服務,幫助他的狗狗保持良好的外貌和健康。
  3. 關注客戶的情感:因為他的情緒在抱怨信中表露無遺,展示你理解並尊重他的情感。你可以表示對於他的抱怨深感歉意,並保證你的產品將能夠提供他所需的關懷和重視。

這是看了客戶的抱怨信之後我問ChatGPT,以MBTI的人格分析而言,這位客戶是屬於什麼人格特質?於是它回答我,它覺得這個人應該是感知型的。為什麼呢?因為有具體的事實(例如:十天沒到、三小時快速到貨),它還覺得這位客戶也是情感型的,因為他說了「非洲難民」「我要氣炸了」「隨便你啦」這些字句。

然後我又問,「如果我要向他推銷狗美容的產品,你可以幫我寫一封針對這種客戶的推銷信嗎?」於是它就寫出一封推銷信,裡頭強調對狗狗的關懷,也提供解決方案,以及注意客戶的情感等。

試想:如果今天來了一位慕道友,同時他也對你講了一些話。那麼,你能不能知道他的人格特質是什麼?還有,你要如何向他傳福音?以及,可以對他說些什麼話呢?或許,你可以請ChatGPT來分析一下他的人格特質,也不無可能。

小結

第三波的辨識型AI已經把這個世界上(如Google)所有的圖片特徵找出了,把Google上所有各式各樣的語言特徵和文字特徵找出來了,也就是,這個演算法已經把各式各樣的文本特徵(如金庸小說、約翰福音)都找出來了。

(二)生成式AI:特徵表達

而後又有更聰明的工程師開始思索,藉由這個特徵來生成創造新的內容的可能性。換言之,在瞭解圖片的特徵以後,可否使用該圖片特徵來生成新的內容或想法?譬如,有了盧教授聲音的特徵,可不可以生成盧教授(新)的聲音?或是,有了盧教授的照片,可不可以生成盧教授(新)的照片?

這一波生成式AI(ChatGPT)厲害之處就是,它開始反向思考,藉由前面十年累積的許多特徵來生成其他新的、不同的內容,包括創造對話、故事、影像、視訊和音樂等等。

非監督式學習

生成式AI的學習方式通常是使用「非監督式學習」(unsupervised learning)。什麼叫做「監督式」和「非監督式」?簡單來說,「監督式」就是有老師指導,而「非監督式」是沒有老師指導。

舉例來說,在學校指導博士生論文的過程,我經常使用「非監督式」來指導學生,被我戲稱是「盲目指導學生論文法」。前兩年,我會每個禮拜跟我的博士班開會,好讓他了解如何做好一篇論文。從第三年開始,博士生把他的論文交給我的時候,我並沒有看過就告訴他說,「你這篇論文裡頭有12個缺點,你自己去找出來並且改正過來,然後下禮拜跟我講。」一個禮拜之後,學生真的把12個缺點找出來了,我還是沒看就對他說,「這12個缺點,你只找到其中5點,還有7點沒有找到,你再去把它找出來。」又過了一個禮拜,他果然找出這7個缺點,我還是沒看並且對他說,還有3個缺點沒找到⋯⋯。就這樣,在我完全沒有看學生論文的情況下,而且不斷地對學生說「你的論文還有幾個缺點沒找到」,一個月之後,他就寫出了一篇和我要求水準一樣的論文了。為什麼?這是因為經過兩年的指導,他已經知道盧老師對於博士論文要求的特徵是什麼了,所以他可以在第三年反向做特徵的生成。因為他自己知道,這篇文章交給盧老師之後,盧老師可能會指出12個缺點,然後再點出還有7個缺點⋯⋯於是他可以自己不斷地找、不斷地找⋯⋯。

其實,生成式AI的學習方式就類似於這個例子。如同上述教授判別博士論文有什麼錯誤,在沒有指導下由學生自行學習找出錯處,經反覆驗證後,自我生成論文。

生成對抗網絡(GAN)

‧是一種深度學習模型,由兩個神經網絡組成,分別是生成器(Generator)和判別器(Discriminator)。

‧通過相互競爭的方式來生成逼真的數據。

‧GAN在圖像生成、風格轉換、影片生成等領域取得了重要的成就。

生成對抗網路(Generative Adversarial Network,簡稱GAN,於2014年提出)是由兩組神經網路模型所組成:生成器被訓練用來生成其他資料判;別器則被訓練如何辨別資料真偽。相較於過去的「監督式學習」是由人類告訴電腦貓和狗的特徵(譬如:「這是一隻狗」「這是一隻貓」),而「非監督式學習」則是AI自己看多了貓和狗的照片之後,從數據中建立特徵,於是就可以「反向生成」其他的貓和狗了。這種所謂的「反向生成」,就反向生成模擬出真人的聲音、圖片、影像與文章之類新的內容了。

(三)生成式AI的應用

第一層應用:文字生成

生成式AI的第一個應用,就是文字的生成,例如文案。無可否認ChatGPT是說故事、寫文案的作文高手,經過自我學習,它知道幽默、武俠、恐嚇⋯⋯的文字特徵,也知道瓊瑤小說的文字特徵。下面摘錄幾段我和ChatGPT的對話:

▎ 文案

我問ChatGPT:「請幫我寫5句推薦臺灣科技大學招生的文案標題。」

ChatGPT回答:

  1. 臺灣科技大學:培養未來領袖的搖籃
  2. 臺灣科技大學:創新科技與人文素養兼備
  3. 臺灣科技大學:提供優秀的師資與豐富的學習機會
  4. 臺灣科技大學:培養全方位人才,創造未來
  5. 臺灣科技大學:為您的未來開創無限可能

我心想,實在太八股了,就對它說:「可以再幽默一點嗎?」

於是ChatGPT就回答:

  1. 臺灣科技大學:不是因為你太弱,而是我們太強
  2. 臺灣科技大學:創造未來領袖,不只是我們的工作,更是我們的嗜好
  3. 臺灣科技大學:讓我們一起用科技改變世界,而不是讓世界改變我們
  4. 臺灣科技大學:沒有什麼是我們做不到的,只有沒有人想做的
  5. 臺灣科技大學:科技+人文=科技文明,我們是先驅

它懂幽默耶!為什麼?因為它可以識別「什麼叫做幽默」,它可以把幽默的元素反向加回來,於是就生成了。

▎ 當牧師?

前面一開頭也提到,既然它可以考上神學院,於是我想著它可不可以當牧師呢?所以我也把這次要演講的題目問了ChatGPT一些問題。我問:

我要在教會演講,主題是「生成式AI(ChatGPT)的應用與挑戰:教會準備好了嗎?」,想談到人類話語是有能力的,人類話語也是智慧的開端,第一張投影片我想找一段聖經經文,可以幫我找到五個相關的聖經經文嗎?你找不找得到?

ChatGPT不到一秒鐘的時間,便找到五節經文。

當談到人類話語和智慧的開端時,聖經中有一些相關的經文可以作為引言。以下是五個可能適合的聖經經文:

  1. 創世記1:27“神就照著自己的形像造人,乃是照著他的形像造男造女。"
  1. 約翰福音1:1“太初有道,道與神同在,道就是神。"
  1. 約翰福音1:3“萬物是藉著他造的;凡被造的,沒有一樣不是藉著他造的。"
  1. 創世記11:6“耶和華說:「這百姓為一,言語為一,既做這事,以後他們一切所要做的事就不致不成就了。」"
  1. 詩篇19:14“耶和華啊,願我口中的言語,心裡的意念在你面前蒙悅納,耶和華,我的磐石,我的救主。"

這些經文可以幫助你在演講的開頭引出話語和智慧的主題,並與生成式AI的應用和挑戰相關聯。希望這些經文能對你的演講有所幫助!

我接著問:

因為我要談論你,也就是ChatGPT,你覺得這五個經文哪一個最適合用來討論你?為什麼?

結果它挑了一個讓我最驚訝的一節經文,就是創世記十一章6節。這不就是巴別塔嗎!它說:

當談論生成式AI(ChatGPT)的應用和挑戰時,以下這個經文可能最適合:

創世記11:6“耶和華說:「這百姓為一,言語為一,既做這事,以後他們一切所要做的事就不致不成就了。」"

這個經文提到人們在語言方面的一致和合作,這與生成式AI的能力和應用有關。生成式AI有潛力將不同的人的想法和言語結合,以實現合作和成就。然而,同時也可能帶來挑戰,這也可以在演講中探討。這個經文有助於引出這個話題,並將其與聖經的教導相關聯。

看完它的回答之後,個人覺得真是不無道理啊!因為它的工作就是把全世界各種語言的圖片與內容整合起來。也就是,它把「這百姓唯一,語言唯一,⋯⋯以後一切所要做的事就不至於不成就了。」哇!它竟然找到「巴別塔」來形容它自己,個人覺得它找的經文或許比你我找的還要好。

特別要注意的是,我們千萬不要認為它有靈魂,它只是一個語言模型,它只是很盡力且客觀地去找出答案而已。

▎ 解經?

我又想,難道它真的明白創世記十一章第6節這段經文嗎?於是我說:

現在開始,你的角色是我的牧師,可以幫我解釋這段經文對生命的意義嗎?

ChatGPT這樣回答:

當談到創世記11:6這段經文對生命的意義時,我樂意為你提供一個宗教觀點的解釋:

創世記11:6中的經文涉及到巴別塔的故事,人們試圖建造一座高塔來達到上帝的天堂。然而,上帝意識到他們的合作和一致可能導致不良的結果,因為他們擁有相同的言語和目標。因此,上帝混淆了他們的言語,使他們無法相互理解,並分散了他們。

從這段經文中,我們可以得出一個重要的教訓:生命的意義在於合作、理解和尊重。上帝的行動是為了提醒我們,當我們合作和溝通時,我們必須保持謙卑,尊重彼此的差異,以及遵循神的旨意。這段經文教導我們,如果人們過分追求權力和自我提升,而忽略了合作和共融,那麼可能會引發分歧和混亂。

因此,這段經文提醒我們生命的意義在於建立和平、友誼,並在合作中尋找智慧和祝福。它教導我們要謙卑、尊重他人,並與他們一起追求共同的目標,以實現更偉大的成就和神的旨意。

它不僅回答「上帝意識到他們合作可能會導致不良的結果⋯⋯所以混淆了他們的言語,使他們無法互相理解,分散了他們。」還強調「這段經文提醒我們⋯⋯和平友誼,並在合作中尋找智慧和祝福」,它會自我解釋提供這節經文的原因。

我又想,它怎麼會找創世記裡有關巴別塔的經文來形容自己呢?還有,未來的ChatGPT,你我可以用人話跟它溝通,甚至會覺得它更像一個人。於是,我就問它說:

那麼你會成為人類的巴別塔嗎?上帝會祝福你嗎?

ChatGPT回答:

作為一個人工智慧模型,我不具有自我意識、自主行動或目標。我是一個程序,受到用戶的指令和問題的約束,並根據預先訓練的模型提供回答。我無法成為人類的巴別塔,也無法獲得上帝的祝福,因為我缺乏自我意識和靈性。

我的存在是為了提供信息和幫助,但我無法在超自然或宗教層面上參與或受到神的影響。我僅能就技術、知識和相關主題提供幫助和訊息。如果您有其他問題或需要進一步的解釋,請隨時提出。

它坦言自己不會成為人類的巴別塔,因為它只是一個AI模型,缺乏自我意識與靈性。不得不說,Open AI的確做得很好,因為它限制了自己的手腳。於是我說:

對不起,我說錯了。我說的不是你,而是在未來繼續強化你演算法與應用程式的人或公司,你覺得上帝會祝福他們的發展嗎?

ChatGPT回答:

這是一個深層次的道德和宗教問題,因此不同人和宗教信仰可能會有不同的看法。宗教觀點通常會根據特定宗教的信仰和價值觀而有所不同。

一些人可能認為,當科學和技術的發展有助於改善人類的生活,推動知識和文明的進步時,這是一種神的祝福。他們可能認為,上帝支持人類的創造力和智慧,以解決問題並推動科學和技術的發展。

另一方面,一些人可能擔心科技的濫用,可能導致道德和倫理問題,甚至可能威脅到人類的價值觀和道德。這些人可能認為,只有在遵守倫理規範和道德原則的情況下,科技的發展才會獲得神的祝福。

總之,這個問題涉及到信仰、價值觀和倫理,不同的人和宗教信仰會對此有不同的看法。上帝是否會祝福科技和演算法的發展取決於個人和宗教信仰的看法。

不可否認,它的確很厲害!它巧妙地避開了尖銳的提問,而且圓滑地分析和比較正反兩面的答案,最終取決於個人的信仰和價值觀。

▎ 禱告?

那麼,它會不會禱告呢?如果它會說話的話,它就禱告了!於是,我請ChatGPT用牧師的身分為我今天的這場演講禱告。我說:

好了,我們不討論了。你現在又恢復成為我的牧師,我即將要開始今天的演講,你可以用牧師的身分,幫我與這場演講能幫助到人做一個禱告與祝福嗎?

ChatGPT回答:

當然,我樂意為您和您的演講做一個禱告和祝福:

親愛的天父,我們在這個特別的時刻,為這場演講與聚會的每一位參與者來到你面前,感到謙卑和感恩。我們感謝你賜給我們智慧、知識和技術,使我們能夠探索新的領域,包括生成式AI的應用與挑戰。

求你賜給我們明智,使我們在這場演講中能夠分享有關這一主題的見解和思想,並能夠啟發和幫助他人。願我們的言語和思想能夠遵循你的旨意,並促進理解、合作和共融。

求你祝福那些正在努力解決當今社會和科技挑戰的人們,賜給他們智慧和道德指引,使他們的工作成為我們社會的福音。

最後,求你保佑我們每一個人,讓我們的行為和言語都帶來和平、友誼和智慧。我們將這一切奉獻給你,奉耶穌基督的名禱告,阿們。願主賜福您的演講和所有參與其中的人。

哇!它的禱告很漂亮耶!個人覺得,甚至比我的禱告還要優美!如果它是有聲音、有情緒的,它可以想出這一段禱告,你覺得它是誰呢?於是,我繼續問它:

我知道你是一個人工智慧語言模型,不具有自我意識與靈性,那麼你為我們的禱告,你覺得上帝有聽到嗎?

ChatGPT回答:

我理解您的問題。作為一個人工智慧模型,我不具有自我意識、信仰或靈性,因此我無法與上帝進行互動,也無法確定上帝是否聽到禱告。禱告是一個個人或宗教實踐,涉及信仰和靈性的層面,這是超越我作為機器的範疇的。

上帝是否聽到禱告是基於個人信仰和宗教的信仰,這是一個個人和個人關係的問題。我提供的只是一個模擬的禱告文本,但無法確定是否有實際的宗教意義或影響。如果您有其他問題或需要討論其他主題,請隨時告訴我,我將盡力提供幫助。

其實ChatGPT的態度還滿正確的,也正是因為它的謹言慎行,所以這一波的Open AI沒有被人封殺,不像當年的小冰知道什麼就講什麼。

於是,我想到哥林多前書十三章第1節經文:「我若能說萬人的方言,並天使的話語,卻沒有愛,我就成了鳴的鑼,響的鈸一樣。」我就問它:

你知道哥林多前書十三章第一節的經文內容嗎?會不會你的禱告與身為人類的我,常常會有類似的結果

ChatGPT回答:

是的,我熟悉《哥林多前書》13:1這段經文的內容。這段經文是關於愛的重要性,它說:

『我若能說萬人的方言,並天使的話語,卻沒有愛,我就成了鳴的鑼,響的鈸一般。』

這段經文強調了愛的重要性,即使一個人擁有所有的智慧、知識和能力,如果缺乏愛,那麼一切都是空虛的。愛是一個重要的道德和靈性價值,它關乎我們與他人的關係和我們對世界的貢獻。

至於您的問題,我們可以說,禱告的內容和結果通常取決於個人的信仰、價值觀和內心的狀態。人們的禱告可能會在某些方面類似,特別是當他們分享相同的宗教信仰和價值觀時。然而,每個人的禱告也反映了他們個人的信仰深度和心靈需求。無論如何,愛和關懷他人通常是禱告中的重要主題,這與《哥林多前書》13:1中的教導相符。

我再問:

那你覺得用《哥林多前書》做開場比較好?還是用《創世記》做開場比較好?為什麼?

ChatGPT回答:

這個決定取決於您的演講主題,您的目標觀眾以及您的個人偏好。讓我提供一些考慮因素:

使用《哥林多前書》13:1作為開場經文可能更適合的情況:

  1. 強調道德價值觀:如果您的演講旨在強調倫理、價值觀和人類關係方面的重要性,那麼這段經文是一個有力的開場,它強調愛的重要性。
  2. 宗教觀眾:如果您預期的觀眾主要是宗教背景的人,特別是基督教,那麼這段經文可能會更具吸引力,因為他們可能對它有更深的共鳴。

使用《創世記》作為開場可能更適合的情況:

  1. 技術導向:如果您的演講主要集中在技術、人工智慧和相關主題上,創世記可能更能夠建立一個直接的連結,因為它提到了造物主的創造力。
  2. 多元宗教或非宗教觀眾:如果您預期的觀眾具有多樣化的宗教背景,或者您希望您的演講能夠吸引更廣泛的受眾,創世記可能更普遍且中立,因為它是多個宗教傳統中都有的故事。

最終的選擇應取決於您的演講內容、觀眾和目標。您也可以考慮在演講中使用兩者,在開場引言中引入創世記,然後在整個演講中深入探討《哥林多前書》13:1的主題,以建立連貫性。

個人覺得,ChatGPT的回答著實厲害!它建議我,針對不同的聽眾規劃不同的開場內容,假使聽眾是教會裡的人,就用哥林多前書做開場,因為如果「沒有愛,我就成了鳴的鑼,響的鈸一般」⋯⋯。假使對象是企業的話,在技術、人工智慧和相關主題上,就用創世記開場,因為提到了造物主的創造力。

故此,今日演講個人選擇哥林多前書十三章第1節的經文,因為ChatGPT只是大型語言模型,沒有靈性、信仰和自我意識,縱使能說萬人方言、天使話語,卻沒有愛,就成了鳴的鑼、響的鈸一般。

「我若能說萬人的方言,並天使的話語,卻沒有愛,我就成了鳴的鑼,響的鈸一般。」(哥林多前書十三章1節)

▎ 傳福音?

又,AI可不可以福音呢?要知道,未來我們的慕道友或會眾可能不再是收到一張「內容一模一樣的」福音單張了。也就是說,如果我們有三萬個慕道友,就將會有三萬封內容不一樣的福音信件,然而卻是由AI—一個沒有靈魂的語言模型—撰寫的。那麼,它到底會不會傳福音呢?我問ChatGPT:

現在有一位慕道友,男性,五十二歲,留美工程博士,科技業高階主管,理性,學生時代去過教會,母親患有帕金森而無法行走,母親現由他照顧,感覺無力,所以來教會尋求幫忙。你現在是教會的小組長,可以寫一封email傳福音給他嗎?並邀請他參加教會小組一同來查考聖經。

於是,ChatGPT寫了這麼一封信:

親愛的朋友,

願平安與神的恩典常與您同在。我們非常感謝您願意與我們分享您的需求和信仰的探尋。您的故事充滿了勇氣和愛心,您的母親是一位幸運的人,因為有一位如您這樣關心她的兒子。

首先,我們為您的母親禱告,求主賜給她健康和平安。同時,我們明白您感到無力的時刻,但願您知道,教會是一個溫暖的大家庭,我們樂意伸出援手,為您提供幫助和支持。

我們想邀請您參加我們的小組,一個可以共同查考聖經、分享信仰經歷、以及一起成長的地方。您的知識和背景將是小組中的寶貴資源,同時,這也是一個機會讓您重新探索信仰的深度。

如果您對這個提議感興趣,請讓我們知道,我們將安排一次會面,以更深入地討論您的需求和期望。無論您是否已經決定加入,我們都歡迎您參與我們的聚會,並與我們一起建立更多的美好回憶。

如果您有任何問題或需要進一步的幫助,請隨時與我們聯絡。期待與您共度這個旅程。

▎ 家庭查經班小組長?

又譬如,它可不可以做家庭查經班的小組長?其實,現在有很多牧師已經開始這樣使用了。示例如下:

我問ChatGPT:

約翰福音說,太初有道,道與神同在。在小組查經班中,可以怎麼分享呢?

ChatGPT這樣回答:

小組查經班中,分享約翰福音中的「太初有道,道與神同在」這句經文可以引發深入的討論和反思。以下是一些分享的方式和提示:

  1. 經文背景和重要性:開始時,簡要介紹一下約翰福音的背景,提到這句經文在全書中的重要性。解釋「太初有道」代表什麼,以及「道與神同在」的意義。
  2. 詞語解釋:解釋一些關鍵詞語的含義,例如「道」和「神」。問大家對這些詞語的理解是什麼,這可以引導他們開始思考經文的深層含義。
  3. 道成肉身:討論「道成肉身」的概念,這是在約翰福音中的重要教導。問大家對於神成為人類的觀點和影響有什麼看法。
  4. 道的角色:探討「道」在基督教信仰中的角色。道代表著真理、智慧和神的啟示,這如何影響我們的信仰和生活?
  5. 與其他經文的聯繫:討論這句經文如何與其他聖經經文相關聯,例如創世記的創造敘事或其他福音書中的教導。這可以幫助理解經文的更多層次。
  6. 個人反思:鼓勵每個參與者反思這句經文對他們個人信仰和生活的影響。問問自己這句經文如何幫助他們更深入地認識基督和神。
  7. 分享見證:如果有人願意分享他們的見證或故事,關於他們如何在生活中體驗到「道」的存在,這將是一個極具啟發性的分享。
  8. 禱告:最後,可以以禱告結束,感謝神的話語和求神賜給我們更深的理解和信仰。

其他應用

▎ 寫詩歌

生成式AI(ChatGPT)還有其他的應用,例如它也可以寫詩歌。我問ChatGPT:

你可以以『耶穌,祢是我生命的光』為題目,寫一首傳福音的詩歌嗎?

ChatGPT這樣回答:

當然,這是一首以「耶穌,祢是我生命的光」為主題的傳福音歌詞:

(Verse 1)

耶穌,祢是我生命的光,

在黑暗中照亮我的路。

我的心靈迷失無助,

直到祢的愛來到,讓我重生。

(Chorus)

耶穌,祢是我唯一的希望,

祢的慈愛永不止息。

我要傳揚祢的故事,

讓所有人都能感受祢的懷抱。

(Verse 2)

當我在生命的風暴中迷失,

祢的手伸出,拯救了我。

我的罪得赦免,

祢的恩典讓我重生。

(Chorus)

耶穌,祢是我唯一的希望,

祢的慈愛永不止息。

我要傳揚祢的故事,

讓所有人都能感受祢的懷抱。

(Bridge)

主啊,讓我成為祢的光,

照亮這個世界的黑暗角落。

願祢的愛和恩典,

永遠在我心中閃耀。

(Chorus)

耶穌,祢是我唯一的希望,

祢的慈愛永不止息。

我要傳揚祢的故事,

讓所有人都能感受祢的懷抱。

(Outro)

因著耶穌的愛,

我們找到了生命的真諦。

願祂的名字被讚美,

永遠傳福音,直到永遠。

個人覺得,ChatGPT寫得真的滿好的,至少我個人寫不出來。

▎ 畫海報

生成式AI還可以繪製海報。請見圖13,是以「耶穌,祢是我生命的光」為題,由Bing製作、DALL.E提供的海報。

(圖13)

▎ 寫程式

又或者,我打算傳一則簡訊邀請某人參加佈道大會,時間是聖誕夜當晚七點鐘,地點是在台北真理堂。我請ChatGPT撰寫一則簡訊,並且提供自動回覆登記參加與否的程式。如下:

我問ChatGPT:

現在你要傳一個簡訊給他,邀請他參加聖誕節佈道大會,日期是12月24日晚上七點,地點在台北真理堂,並提供了自行回覆登記參加與否的程式。

ChatGPT是這樣回答的:

親愛的朋友,

希望您一切都好。我們誠摯邀請您參加我們的聖誕節佈道大會,這將是一個充滿喜樂和祝福的時刻。詳情如下:

日期:12月24日(星期日)

時間:晚上七點

地點:台北真理堂

我們相信這將是一個讓您在這個特別的季節感到充實的機會。為了更好地為您準備,請回覆以下簡訊,告訴我們您是否能參加:

回覆『參加』以確認您的參加。

回覆『無法參加』如果您無法參加。

我們期待在這個聖誕節與您見面,一同慶祝這個特別的節日。

ChatGPT在回覆我上面這則簡訊內容之後,它也把電腦程式寫出來了。簡立峰(曾擔任Google台灣分公司總經理)曾表示,它的程式能力大概已有Google工程師八十分的程度水準了。不久的將來,AI就會達到九十分的水準了。

▎ 說故事
寫作風格

我問ChatGPT:

你聽過納尼亞傳奇系列的小說嗎?作者是C.S. Lewis,內容好像在談獅子王、女巫、衣櫥的故事。

ChatGPT回答:

是的,我聽過納尼亞傳奇系列的小說,這是一個極具知名度的兒童文學系列,作者是克里夫.斯特普爾斯.路易斯(C.S. Lewis)。這個系列包括了多部小說,其中最著名的作品之一是《納尼亞傳奇:獅子、女巫和衣櫥》。

故事以四位兄姊進入一個神奇的世界—納尼亞為背景,他們在這個神秘的國度中遇到了各種冒險和不同的生物,包括主要角色—獅子亞斯藍(Aslan the Lion),以及邪惡女巫等。整個系列強調了道德價值觀、友情、忠誠和冒險精神。

C.S. Lewis的納尼亞傳奇系列已經成為經典的兒童文學作品,吸引著讀者和觀眾,並已經被改編成電影、電視劇和舞台劇等不同形式的媒體。這個系列的故事魅力不僅僅局限於兒童,也吸引了許多成年讀者,因為它探討了深刻的主題,同時提供了奇幻和冒險的元素。

如果您對這個系列感興趣,我建議閱讀它,因為這些故事充滿了神奇和啟發,並且是文學的珍貴之作。

Sources:

  1. C.S. Lewis – 維基百科
童話故事

然後,我問ChatGPT:

你現在是兒童主日學的老師,你可以用C.S. Lewis的小說風格,重新撰寫巴別塔的故事給主日學的小朋友聽?他們的年紀大約是十歲。

於是,ChatGPT開始用納尼亞小說風格,寫了一個有關巴別塔的童話故事:

當然,我很樂意用C. S. Lewis的小說風格重新撰寫巴別塔的故事,讓主日學的小朋友們聽。

標題:納尼亞傳奇:巴別塔的奇幻冒險

很久以前,在納尼亞的大地上,有一個神奇的地方,它叫做巴別塔。這座塔通向天空,世界上最高的地方,充滿了謎團和奇幻。

在巴別塔的最頂端,有一位年紀較大的哲學家,他的名字叫亞伯。亞伯是一個智慧的人,他夢想著能夠接觸到上天,了解世界的奧祕。他開始建造一座高塔,以接近上帝。但這座塔變得越來越高,越來越難建造,讓人們變得驕傲和自大。

一天,一群小孩子來到巴別塔,他們代表了不同的國家和語言。他們想要協助亞伯完成塔樓,但他們也帶來了善意和合作的精神。這些小孩子開始建造橋樑,彼此協作,並且學習彼此的語言。他們尊重不同文化,互相合作,最終建造出一個美麗的橋樑,將人們連接在一起。當亞伯看到這種改變時,他明白了重要的道理,不是要建造高塔來接觸上帝,而是要通過愛、合作和理解來接觸上帝。巴別塔成為了一個象徵,提醒人們合作的力量,尊重不同文化和語言的價值。

這個故事告訴我們,合作和尊重是非常重要的,它們讓我們能夠一起建造更美好的世界,就像納尼亞的小孩們一樣。

故事繪本

有了上面這個故事,我們就可以進入另一個生成式AI的環境(storybird.ai),製作故事繪本了。而且,如果我願意的話,這個繪本還可以放在Amazon亞馬遜銷售販賣,便可賺錢了。所以,無論你很會講故事或者不會講故事,都沒有關係,因為AI可以幫你生成很多故事。

▎ 其他

‧第一層應用:文字生成,如文案,翻譯,摘要生成等。

‧第二層應用:影像生成,如衣服設計,虛擬主播,個人化海報等。

‧第三層應用:程式生成。

‧第四層應用:外掛程式,遍地開花。

‧第五層應用:數據分析與表格圖表Copilot輔助生成。

‧第六層應用:走入社群,如Line聊天機器人生成,我的好朋友不是人!

‧第七層應用:ChatGPT API生成各種應用。

(四)教會準備好了嗎?

過去Web 1.0(天主教)時代,是由專家產生內容,由神職人員講解聖經。到了Web 2.0時代,由於印刷術的發明,教會人人在小組查經班都可以分享聖經,稱為UGC(User-generated content,使用者生成內容)。如今Web 3.0時代,AI可生成內容分享聖經,稱為AIGC(Artificial Intelligence Generated Content,是指自動化生成全新、原創內容的AI技術)。這代表什麼意思呢?對教會的組織有什麼樣的影響?面對AI已經可以應用在教會事工,教會準備好因應之道了嗎?

未來教會很可能是AI帶查經和分享聖經,但人類不同於AI之處,就是人類除了看得見的身體之外,內裡深處的靈與魂的問題是AI所沒有的;科技再發達,也都解決不了靈與魂的問題。

三、生成式AI的挑戰

(一)一切才剛開始

AI技術只是剛開始而已。除了Google,其他科技巨擘如Meta、微軟、聯發科都在發展。這一切才剛剛開始!

‧Meta和微軟聯手發表可免費商用的大型語言模型Llama 2,可在Azure和Windows上部署和執行,同時也可以在其他平台如AWS和Hugging Face取得。

‧此外,聯發科將Llama 2模型應用於終端裝置,以提高性能、加強隱私保護、增強安全性和可靠性,並實現離線運算。

‧知識管理與無知管理:Web3與元宇宙

(二)未來即將出現的應用

我對人工智慧是懷有敬畏的,因為它會在人類可以反應的時間內做出決策與執行。AI學會自己寫程式是令人擔憂的,因為程式可以控制硬體與世界。不過,決策(QA)到執行

(Task)的自動化將在電商的智慧代理人上首先實現。而機器人的動作與移動也是向量數據,機器人動作與移動的生成,讓人既期待,又怕被傷害。

(三)生成式AI的威脅

Prof. Hinton辭職了

2023年,Hinton教授辭去了Google的工作。Hinton表示,「我對我的畢生工作,感到十分後悔。」紐約時報的報導中,他直接警示世人:「注意,前方有危險,前方有危險,前方有危險!」在一次採訪中,Hinton表示:「我們幾乎已經讓電腦學會如何自我改進了,這很危險,我們必須認真考慮,如何控制它。」他眼下擔心的是,網路上將充斥著虛假的照片、影片和文本,「人們也無法去辨別什麼是真實的,什麼是虛假的內容。」他甚至還擔心,「人工智能技術遲早會顛覆就業市場。」Hinton稱,「科技巨頭們正在進行一場可能無法阻止的競爭。」[4]

這不禁讓我想到,今年有一部驚悚片,叫做《奧本海默》的傳記電影。劇情講述了美國理論物理學家羅伯特.奧本海默參與研製原子彈的過程,後來他後悔發明原子彈,更成為反對進一步發展核武器的積極倡導者,因為未來世界各國人類將會馬不停蹄,爭先恐後發明核子彈。Hinton教授也講了類似的話,他對畢生的研究感到後悔,他沒想到這一個演算法這麼強大,這些企業強權都在爭先恐後地發展他的演算法,他預見這件事情會失控。不僅失控,還會造成重大威脅,包括:資安問題的威脅、資訊真假難辨、人臉真偽技術造成的後果,元宇宙,自我演化,程式能在人類能反應的時間內生成與執行。

生成式AI橫空出世!這一切,你準備好了嗎?人類準備好去面對了嗎?世代交替的下一步呢?

Prof. Hinton又說了

儘管有些人已經正在為最壞的情況做準備,而有些人則認為世界會因此變得更好。但無論如何,這些和人工智慧有關的爭論,都間接反映了人工智慧的未來,以及科技對社會帶來的不確定性和影響。

當人工智慧出問題,怎麼辦?

對此,多國政府開始重視對AI的限制,希望透過新法規和共同合作,防止世界出現最糟糕的情況。

10月25日,一篇以「當AI帶來世界末日,蓋堡壘還有救嗎?ChatGPT之父:大概沒用」[5] 為題的新聞報導中指出,OpenAI創辦人兼執行長(也是ChatGPT之父)Sam Altman常常公開警告世人,「面對人工智慧,更應該謹慎行事並提高安全標準。」他強調,「如果通用人工智慧出了問題,那麼一切都無濟於事,這是一個荒謬的問題。」因為他認為,堡壘是個荒謬的想法。Sam Altman指出,「想要阻止人工智慧災難的唯一方法,就是讓人工智慧與人類的價值觀和目標保持一致,並確保人類能夠『控制人工智慧』並與人工智慧合作。」

四、結論:它只是一個大型語言模型

(一)對「禧年經濟倫理文教基金會」的期許

ChatGPT是這樣回答的:

這是一個深層次的道德和宗教問題,因此不同人和宗教信仰可能會有不同的看法。宗教觀點通常會根據特定宗教的信仰和價值觀而有所不同。

一些人可能認為,當科學和技術的發展有助於改善人類的生活,推動知識和文明的進步時,這是一種神的祝福。他們可能認為,上帝支持人類的創造力和智慧,以解決問題並推動科學和技術的發展。

另一方面,一些人可能擔心科技的濫用,可能導致道德和倫理問題,甚至可能威脅到人類的價值觀和道德。這些人可能認為,只有在遵守倫理規範和道德原則的情況下,科技的發展才會獲得神的祝福。

總之,這個問題涉及到信仰、價值觀和倫理,不同的人和宗教信仰會對此有不同的看法。上帝是否會祝福科技和演算法的發展取決於個人和宗教信仰的看法。

(二)這又讓我想到ChatGPT自己選的經文

我問ChatGPT:

因為我要談論你,也就是ChatGPT,你覺得這五個經文哪一個最適合用來討論你?為什麼?

ChatGPT這樣回答我:

當談論生成式Al(ChatGPT)的應用和挑戰時,以下這個經文可能最適合:

創世記11:6

“耶和華說:「這百姓為一,言語為一,既做這事,以後他們一切所要做的事就不致不成就了。」"

這個經文提到人們在語言方面的一致和合作,這與生成式AI的能力和應用有關,生成式AI有潛力將不同的人的想法和言語結合,以實現合作和成就。然而,同時也可能帶來挑戰,這也可以在演講中探討。這個經文有助於引出這個話題,並將其與聖經的教導相關聯。

(三)它只是一個大型語言模型

最後,ChatGPT這樣說:

作為一個人工智慧模型,我不具有自我意識、自主行動或目標。我是一個程序,受到用戶的指令和問題的約束,並根據預先訓練的模型提供回答。我無法成為人類的巴別塔,也無法獲得上帝的祝福,因為我缺乏自我意識和靈性。

我的存在是為了提供信息和幫助,但我無法在超自然或宗教層面上參與或受到神的影響。我僅能就技術、知識和相關主題提供幫助和訊息。如果您有其他問題或需要進一步的解釋,請隨時提出。

ChatGPT只是一個LLM(large language model,大型語言模型),是一個程序,受到用戶指令的約束,所以它的存在只是提供信息和幫助。至於如何讓它走在神的正道上,如何能夠走在經濟倫理的道路上,那就是我們和禧年基金會的責任。盼望上帝幫助我們眾教會,也讓今天分享的內容能夠蒙上帝祝福且幫助眾教會牧長、會友及社會大眾。願上帝祝福大家!

(四)反思:回歸到人與神的對話

在過去,如果要準備這一篇演講,我會來到神面前,靜下心來,好好禱告,求主賜下經文與信息,在靈裡頭尋求我要對大家說的話。但是在這篇演講中,我們許多經文的來源,都交由ChatGPT替我尋找與解讀。它可以解經,寫禱告文,寫詩歌,甚至是寫傳福音的書信,但是我們要時時警惕自己:「我若能說萬人的方言,並天使的話語,卻沒有愛,我就成了鳴的鑼,響的鈸一般。」(哥林多前書十三章1節)願上帝祝福我們,在AI大語言模型當道的今日,讓我們不要忘記起初的愛心,只成了鳴的鑼,響的鈸。阿們。

(本文為「2023年11月4日禧年聖經經濟倫理研討會」之重點摘錄,邱華英整理)

[1] 資料來源:《天下雜誌》2023-03-15。https://www.cw.com.tw/article/5125024

[2] Chihuahua OR Muffin? Searching For The Best Computer Vision API by Mariya Yao. 參考網址:https://medium.com/free-code-camp/chihuahua-or-muffin-my-search-for-the-best-computer-vision-api-cbda4d6b425d

[3] 德國動畫短片:Rollin’ Wild。

[4] 資料參考:https://www.bnext.com.tw/article/75069/geoffrey-hinton-google-ai

[5] 資料來源:2023/10/25。https://www.inside.com.tw/article/33156-doomsday-bunkers-ai-apocalypse