1. 能夠想像情感,甚至可能與人同理,竟然成為GPT-4最引人入勝的方面之一。
2.GPT-4能以某種方法,幫助醫生應對在一般人看來最凡俗的一項任務:如何與病人交談。GPT-4常常以驚人的清晰度和同理心做到這一點。
3.雖然AI系統可能永遠無法在醫療過程中取代人類,但這一回應表明AI可以協助醫生和護理師在病患的互動中,發揮更多的同理心和人性,並持續成長。
4.這個系統可以在非常不起眼的地方出現錯誤,每個使用者都必須心存警惕,要知道GPT-4未必總是對的,特別是當GPT-4告訴你你犯錯時!
5.最新的科學研究無法證明GPT-4不能理解。事實上,很可能某些超乎我們理解範圍之外的深奧事情正在發生。GPT-4可能擁有我們還不清楚的某種「理解」和「思考」能力。將它視為「只是一個LLM」是錯誤的。
6.GPT-4的能力主要來自於其神經網絡的規模。GPT-4的能力包括進行數學運算、參與對話、撰寫電腦程式、講笑話等,這些能力並非由人類設計而來。相反的,它們是在其神經網絡成長的過程中自然浮現的。
7.人類可以在積極思考與世界互動的同時進行學習,但是GPT-4不能以同樣的方式主動學習,它必須進行停機訓練。GPT-4的另一個限制是缺乏長期記憶。
心得
AI以GPT-4為首,目前正蓬勃發展。醫療也必定是未來AI介入最深的領域,不可不先涉獵。本書由AI代表人物微軟主管、哈佛醫學院的主任綜合主筆,在書中許多的例子看到AI幾乎可以在各方面協助醫生,如補充醫生沒問到的問題、向醫生展示如何有同理心的對談、整理並產生SOAP、整理病摘、下診斷、建議治療;還有幫醫生整理最新期刊知識。未來如果還有訓練AI醫技的話,那我想95%的醫療都被取代了。
如果有AI的檢查,如AI超音波、AI聽診、等等,那人類可能只剩把介面移上和移開人體。雖然現階段人類還是比較希望是人類醫生來幫自己進行醫療,但是只要價格一拉開、有人嘗試過發現服務良好,我想天平應該馬上就會傾斜了。甚至AI開刀也是只要有第一個人做了,後續就無法阻止了就像破窗效應一樣。說到底人類會想要人類醫生進行醫療,差別就在於同理心;人類相信同樣是人類的醫生應該是不會傷害自己的。不過在GPT-4的回答模型中展現了驚人的同理心,並且不斷強調它可能有做錯,請與臨床醫師討論,表現出充足的謙虛。在下一代的GPT-5,我想應該99%是超越人類醫師了吧!
很多專家討論AI到底具備意識或思考能力,甚至是自我意識這種大問題。我想要先探討前置知識:在歷史上有所謂的趨同演化,指的是由不同來源的組織、細胞,演化出相同或相似的功能。典型的如鳥類、蝴蝶、蝙蝠的翅膀,雖然構造差異很大,但都達到飛行的效果;以及動物和烏賊的眼睛,由不同構造而來,但都達成感光的效果。這個背後的原則就是,只要是在這世界上演化重要的功能,那麼不同的路線是可能演化出相近功能的。如果說人類的思考能力是不斷演化、複雜化下出現的功能,那麼我認為其演化出相似的思考能力是可能的,而且是高機率的。
我認為這些專家在爭論AI究竟有沒有可能有思考能力時,都忽略了很基本的一點,就是何謂他們口中的「思考能力」?而這點才是關鍵的。因為A專家心中的思考能力,不一定是B專家心中的認定。而且如果爭論「是否像人類那樣思考」,那人類與機器的構造差那麼多,怎麼可能得到肯定的答案。所以關鍵在於,只要它夠精密、夠複雜,也能夠產生思考能力,可與人類進行推理及對話。只是其原理不必就是人類大腦產生思考能力那種原理。本來就沒有規定只有一種機制能產生思考呀。
另外談到意識,或更深的「自我意識」。這也必須先談到人類如何產生自我意識。根據阿尼爾.塞斯的理論,自我意識是演化自為了更好的適應天擇,動物所產生出來的一種功能,類似奔跑、爪子之類。有自我意識的動物具有更好的恆定控制,與對更多死亡的恐懼,故能在天擇中出現並存活。如果以此推論,AI如果一直受到被認為是一個主體來訓練,為了更好的來回答問題,那之後確實可能出現它的自我意識。畢竟這也算一種擇,人擇。或是當它夠複雜時,董事會想要將它關機或銷毀等,那在人擇壓力下可能會演化出自我意識。這樣的解釋可能沒有剛剛的強,不過同樣一句話,它產生的自我意識就必定要像人類的自我意識同樣嗎?沒有規定吧!不同的路徑可以演化出現相同的功能。如書中工程師說,你要說它是LLM(Large language model),那人類說起來也像是LLM呀!
最後我認為AI在專業能力與同理心上都可能超越人類,現在我們應該要認真學習如何應用這門科技在本身專業上,在該時才能與之協同而非被取代。可能人類在未來資訊太容易取得,都要去做初階或勞力活了,與資訊類工作了。
沒有留言:
張貼留言