Frequently asked questions
誤解:
人工智能的運作方式與人類大腦完全相同,並且像人類一樣思考。
澄清:
根據人工智慧之父約翰·麥卡錫的說法,
「人工智慧是模擬人類智慧的機器,這些機器被設計成像人類一樣思考和行動。」-- 約翰·麥卡錫,人工智慧之父
這意味著人工智慧系統被構建為模仿某些人類能力,例如識別語音、理解語言、看見並辨認物體、作出決策或解決問題。
然而,人工智慧與人類智慧並不相同。
人工智慧可以根據其編程和所訓練的數據來做出決策。例如:
自駕車可能會決定變換車道,如果當前的車道被擋住而另一條車道是暢通的。
推薦系統可能會根據學生的播放歷史建議一首歌曲或視頻。
但與人類不同的是,人工智慧並沒有情感、自我意識或像人類那樣理解意義的能力。它沒有自由意志或道德判斷。它無法超出它所學習或被編程的範疇做出決策。
即使人工智慧看起來像是獨立行動,它仍然是在遵循人類設定的規則。它的「思考」實際上是一個複雜的計算和模式識別過程,而不是意識或有意識的思考。
簡而言之:人工智慧可以模仿我們思考和行動的一些部分,但它並不真正「思考」像我們一樣。它是一個強大的工具,但它並沒有自己的思想。
誤解:
人工智慧與機器人是相同的。
澄清:
不,人工智慧並不等同於機器人。
雖然電影和媒體經常將人工智慧描繪成類人機器人,但目前大多數的AI運作是在軟體後台,而不是實體機器。它驅動著像Siri和亞馬遜Alexa這樣的語音助手,推薦YouTube和Netflix上的影片,過濾電子郵件中的垃圾郵件,並協助檢測銀行詐騙,這一切都沒有任何機器人身體。
大多數人工智慧嵌入在我們每天使用的應用程式、網站和設備中。機器人可能使用人工智慧,但人工智慧本身是一種更廣泛的技術,存在於機器人領域之外。
所以,人工智慧不僅僅是關於機器人。它是一種增強我們數位世界各個部分的工具。
誤解:
人工智能是不會出錯的,並且能提供公平、無偏見的決策。
澄清:
不,人工智能並不總是準確或無偏見。
人工智能系統從數據中學習,如果這些數據包含錯誤或偏見——就像現實世界的數據經常會有的情況——人工智能可能會犯錯或加強這些偏見。例如,如果一個人工智能模型是基於反映過去歧視的招聘數據進行訓練的,它可能會在無意中偏袒某些群體而忽略其他群體。
此外,人工智能並不以人類的方式理解上下文。它可能會誤解信息、在不尋常的案例中掙扎,或者被低質量的輸入所誤導。
因此,雖然人工智能可以支持決策並提高效率,但它並不是萬無一失的。人類的監督、透明度以及周密的設計對於確保人工智能系統以負責任和公平的方式使用是至關重要的。
誤解:
人工智慧以與人類相似的方式進行經驗和理解。
澄清:
不,人工智慧的“學習”方式與人類不同。
人類可以從幾個例子中學習全新的事物,並且能夠在不同情況之間建立聯繫,靈活地應用知識。
另一方面,人工智慧是通過處理大量數據來“學習”,以識別模式並進行預測。
例如,人類和人工智慧都可以學會在圖像中識別貓,但他們學習的方式根本上是不同的。
一個人類兒童可能只見過幾隻貓,比如真實的貓、畫作或玩具,並很快理解什麼是「貓」。他們不僅僅是記住貓的外貌;他們發展出直觀的概念理解,包括貓的移動方式、聲音和觸感。相比之下,人工智慧需要在數千甚至數百萬張標註圖像上進行訓練才能識別貓。它並不真正理解什麼是貓。相反,它只是檢測與先前貓的範例相符的像素中的統計模式。
因此,儘管人工智慧可以執行看似學習的任務,但它缺乏定義人類智慧的豐富、適應性和有意義的學習過程。
誤解:
人工智慧完全自動化,並且可以無限改善。
澄清:
不,人工智慧無法在沒有人工干預的情況下完全學習和改善。
雖然一些人工智慧系統可以通過強化學習等方法進行適應,但它們仍然需要人類的輸入來定義目標、提供訓練數據、調整模型和評估性能。即使是最先進的系統也不會自我設定目標或理解其行動對現實世界的影響。它們依賴人類的指導和修正。
此外,人工智慧並不會無限改善。它會根據數據的質量、算法的設計和使用的上下文來達到限制。若沒有持續的人類監督、更新和倫理指導,人工智慧系統可能會變得過時、有偏見,甚至有害。
簡而言之,人工智慧是一個強大的工具,但不是完全自動或自我改善的實體。人類的參與在每個階段仍然是必不可少的。
誤解:
人工智慧可以像人類一樣創造原創想法並具有創造力。
澄清:
不,人工智慧無法像人類一樣進行創造性思考。
人工智慧可以生成看似具有創造性的內容,例如寫作、音樂或藝術,這是通過重新混合它從現有數據中學到的模式來實現的。 然而,它並沒有意識、情感、個人經歷或意圖,而這些都是真實的人類創造力所必需的。
人類創造力涉及想像力、好奇心、直覺以及在無關的想法之間建立新聯繫的能力。 而人工智慧則依賴於統計模式和過去的範例。 它並不是真正地產生想法,而是基於它之前看到的內容預測可能的組合。
例如,Midjourney 通過從龐大的現有藝術作品數據集中學習來生成圖像和視頻,捕捉構圖、顏色、質地和風格的模式。它在製作視覺上引人注目的圖像方面表現優異,模仿或融合著名藝術家、流派或特定提示的風格。然而,它所做的僅僅是重組它已經見過的東西,而不是實際上發明出新的東西。相比之下,人類藝術家可以發展出重新定義藝術的全新藝術風格,比如畢卡索開創的立體主義或梵高的表現主義筆觸如何改變後印象派。這些創新往往源於個人視野、文化批評或情感探索,而這些是人工智慧所不具備的特質。
簡而言之,儘管人工智慧可以幫助和激發創作工作,但它並不能像人類一樣進行創造性的思考。創造力仍然是人類的一種基本特徵。
誤解:
人工智能將完全取代人類在職場上的角色。
澄清:
人工智能不會取代所有人類的工作。雖然人工智能在執行特定任務方面越來越有能力,特別是那些重複性、數據驅動或基於規則的任務,但它缺乏人類更廣泛的能力,如創造力、批判性思維、同理心以及許多工作所需的複雜社交互動。例如,治療師依賴情感智力和深厚的人際連結來支持人們面對心理和情感挑戰,而這是人工智能無法真實替代的[1]。教師的角色超越了單純地傳遞內容;他們根據學生的需求進行調整,建立信任並激發動力[2]。作家、藝術家和設計師產生超越模仿的原創思想和文化表達。領導者和經理在不確定的環境中引導人際動態、激勵團隊以及做出細緻的決策。這些角色展示了人類洞察力、情感和適應能力的持久價值,而在這些方面,儘管人工智慧展現了驚人的能力,但仍然顯得不足。
與其說是全面替代,更準確的情況是工作轉型。人工智慧將自動化工作的某些方面,使人類能夠專注於更具價值或更多人際互動的任務。隨著人工智慧創造對監管、道德指導、開發和這些技術整合的需求,新的角色也將出現。
簡而言之,人工智慧將改變工作的性質,但不會消除對人類工人的需求。未來可能涉及人類與人工智慧之間的合作,而不是完全的交接。
參考文獻:
[1] Chan, C. K. Y. (2025). AI as the therapist: Student insights on the challenges of using generative AI for school mental health frameworks. Behavioral Sciences, 15(3), 287.
[2] Chan, C. K. Y., & Tsi, L. H. (2024). Will generative AI replace teachers in higher education? A study of teacher and student perceptions. Studies in Educational Evaluation, 83, 101395.
誤解:
人工智慧要麼是推動善的力量,要麼是危險的威脅。
澄清:
不,人工智慧本身並非固有的好或壞。
人工智慧是一種工具,和所有工具一樣,它的影響取決於人類如何設計、使用和規範它。它可以用於善,例如改善醫療、教育和可及性,也可以用於害,例如散播錯誤資訊、侵犯隱私或促進偏見的決策。
關鍵在於人類的責任:我們如何選擇構建、應用和管理人工智慧系統。道德設計、透明的做法及強有力的監督對確保人工智慧造福社會同時最小化風險至關重要。
簡而言之,人工智慧本身並不具備善惡。它反映的是創造和使用它的人的價值觀和意圖。

