Do Large Language Models Understand?

CHUL HAK SA SANG - Journal of Philosophical Ideas 90 (90):75-105 (2023)
  Copy   BIBTEX

Abstract

이 글은 챗지피티와 같은 생성형 언어모형이 이해를 가지는지 검토한다. 우선, 챗지피티의 기본 골격을 이루는 트랜스포머(Transformer) 구조의 작동방식을 간략히 소개한 후, 나는 이해를 고유하게 언어적인 이해와 인지적인 이해로 구분하며, 더 나아가 인지적 이해는 인식론적 이해와 의미론적 이해로 구분될 수 있음을 보인다. 이러한 구분에 따라, 대형언어모형은 언어적 이해는 가질 수 있지만 좋은 인지적 이해를 가지지 않음을 주장한다. 특히, 목적의미론을 기반으로 대형언어모형이 의미론적 이해를 가질 수 있다고 주장하는 코엘로 몰로와 밀리에르(2023)의 논변을 비판한다.

Links

PhilArchive



    Upload a copy of this work     Papers currently archived: 92,323

External links

Setup an account with your affiliations in order to access resources via your University's proxy server

Through your library

Similar books and articles

Does thought require sensory grounding? From pure thinkers to large language models.David J. Chalmers - 2023 - Proceedings and Addresses of the American Philosophical Association 97:22-45.
Holding Large Language Models to Account.Ryan Miller - 2023 - In Berndt Müller (ed.), Proceedings of the AISB Convention. Society for the Study of Artificial Intelligence and the Simulation of Behaviour. pp. 7-14.
Understanding the Language of God with the Language of the Universe.Ilyas Altuner - 2021 - Entelekya Logico-Metaphysical Review 5 (2):73-86.
The Epistemological Danger of Large Language Models.Elise Li Zheng & Sandra Soo-Jin Lee - 2023 - American Journal of Bioethics 23 (10):102-104.
Monotonicity Reasoning in the Age of Neural Foundation Models.Zeming Chen & Qiyue Gao - 2023 - Journal of Logic, Language and Information 33 (1):49-68.

Analytics

Added to PP
2023-12-29

Downloads
18 (#837,247)

6 months
18 (#144,494)

Historical graph of downloads
How can I increase my downloads?

Citations of this work

No citations found.

Add more citations

References found in this work

No references found.

Add more references