원문보기: AI And The Limits Of Language

단어와 문장만으로 훈련된 인공지능 시스템은 결코 인간의 이해에 근접하지 못할 것이다.

최근 구글 엔지니어가 구글의 AI 챗봇을 사람으로 선언하자 대혼란이 이어졌다. 챗봇인 람다LaMDA는 텍스트의 어떤 행이 주어지든 다음 단어를 예측하도록 설계된 대규모 언어 모델(LLM)이다. 많은 대화가 어느 정도 예측 가능하기 때문에, 이러한 시스템은 대화를 생산적으로 지속하는 방법을 추론할 수 있다. 람다는 이것을 매우 인상깊게 해냈기 때문에 엔지니어인 브레이크 르모인Blake Lemoine은 기계에 유령이 있는지 궁금해하기 시작했다.

르모인의 이야기에 대한 반응은 전 영역에 걸쳐 있었다: 어떤 사람들은 기계가 사람이 될 수 있다는 생각만 가지고 비웃었다. 다른 사람들은 이 대규모 언어모델이 사람이 아니지만 다음에는 아마도 그럴 수 있을 것이라고 시사했다. 또 다른 사람들은 인간을 속이는 것은 그리 어려운 일이 아니라고 지적했다. 결국 우리는 건배를 하는 성인들을 보는 것이다.

그러나 반응의 다양성은 더 깊은 문제를 강조한다. 이러한 대규모 언어모델이 더 일반화되고 강력해짐에 따라, 우리가 그것들을 어떻게 이해해야 하는지에 대한 합의가 점점 더 줄어드는 것처럼 보입니다. 이러한 시스템은 수년 동안 “상식적인” 언어 추론 벤치마크를 능가했으며, 많은 것들은 “우리가 보통 사람들을 위해 예약하는 완전한 감각으로 생각하고 있다”는 기계에 의해서만 정복될 수 있다고 약속했다. 그러나 이러한 시스템은 테스트를 통과했을 때 상식이 약속된 적이 거의 없고, 여전히 노골적인 허튼소리, 비속어, 부당하고 위험한 조언을 하는 경향이 있다. 이것은 골치 아픈 질문으로 이어진다: 어떻게 이러한 시스템이 그렇게 똑똑하면서도 제한적으로 보일 수 있는가?

근본적인 문제는 AI가 아니다. 문제는 언어의 제한된 본질이다. 일단 우리가 생각과 언어 사이의 연관성에 대한 오래된 가정을 버리면, 이 시스템들은 우리가 인간에게서 보는 완전한 사고와 결코 비슷하지 않을 얕은 이해로 운명지어져 있다는 것은 분명하다. 간단히 말해서, 지구상에서 가장 인상적인 AI 시스템 중 하나임에도 불구하고, 이러한 AI 시스템은 결코 우리와 비슷하지 않을 것이다.

모든 것을 말하기
19세기와 20세기 철학과 과학의 지배적인 주제는 지식은 단지 언어적이라는 것이었다. 무언가를 안다는 것은 단순히 올바른 문장을 생각하고 우리가 알고 있는 모든 진정한 주장의 거대한 그물에서 다른 문장과 어떻게 연결되는지 파악하는 것을 의미한다. 이 논리에 따르면 언어의 이상적인 형태는 엄격한 추론 규칙으로 연결된 임의의 기호로 구성된 순전히 형식적이고 논리-수학적인 것이지만, 모호성과 부정확성을 정리하기 위해 추가 노력을 기울인다면 자연어도 도움이 될 수 있다. 비트겐슈타인이 말했듯이 “진정한 명제의 총체는 자연과학의 총체이다.” 이 입장은 20세기에 너무 확립되어 인지 지도와 정신 이미지의 심리학적 발견에 대해 논란이 많았고, 많은 사람들은 이것이 겉보기에도 불구하고 기본적으로 언어적이어야 한다고 주장한다.

이 견해는 여전히 일부 과도하게 교육받은 지적 유형-알 수 있는 모든 것은 백과사전에 포함될 수 있으므로 모든 것을 읽는 것만으로도 모든 것에 대한 포괄적인 지식을 얻을 수 있다-에 의해 가정된다. 또한 기호 조작(논리적 규칙에 따라 서로 다른 방식으로 결합되는 임의의 기호)이 기본 패러다임이었던 심볼릭 AI의 초기 작업에 많은 동기를 부여했다. 이 연구원들에게 AI의 지식은 논리적으로 서로 연결된 실제 문장의 방대한 데이터베이스로 구성되었으며 AI 시스템이 적절한 시간에 올바른 문장을 내뱉는 경우 즉, 적절한 방식으로 기호를 조작하는 경우 지능형 시스템으로 간주된다. 이 개념은 튜링 테스트의 기초가 된다: 기계가 말해야 할 모든 것을 말한다면, 그것은 기계가 무슨 말을 하는지 알고 있다는 것을 의미한다. 올바른 문장과 그것들을 언제 배치해야 하는지 아는 것은 지식을 소진시키기 때문이다.

그러나 이것은 그 이후로 계속해서 실랄한 비판의 대상이었다. 기계가 무엇이든 말할 수 있다고 해서 기계가 말하는 내용을 이해한다는 의미는 아니다. 언어는 지식을 소진하지 않기 때문이다. 반대로, 그것은 단지 매우 구체적이고 매우 제한된 종류의 지식 표현일 뿐이다. 프로그래밍 언어, 기호 논리 또는 음성 언어와 같은 모든 언어는 특정 유형의 표현 스키마에 의존한다. 매우 높은 수준의 추상화에서 개별 객체와 그 속성 및 이들 간의 관계를 표현하는 데 탁월하다. 그러나 악보를 읽는 것과 녹음된 음악을 듣는 것 사이에는 엄청난 차이가 있고, 그것을 연주하는 기술을 갖는 것과는 더 큰 차이가 있다.

모든 표현 스키마는 무언가에 대한 정보의 압축을 수반하지만, 압축에서 어떤 것이 들어가고 어떤 것이 제외되는지는 다양하다. 언어의 표현 스키마는 불규칙한 모양, 물체의 움직임, 복잡한 메커니즘의 기능 또는 그림의 미묘한 붓 세공 등을 묘사하는 보다 구체적인 정보와 씨름한다. 파도를 서핑하는 데 필요한 까다롭고 상황에 맞는 동작은 말할 것도 없다. 그러나 이러한 정보를 접근 가능한 방식으로 표현할 수 있는 비언어적 표현 방식은 없다: 그것들(비언어적 표현방식)은 이미지, 기록, 그래프 및 지도와 같은 것을 포함하는 상징적인 지식; 그리고 훈련된 신경망에서 발견되는 분산된 지식 – 우리가 흔히 노하우와 근육 기억이라고 부르는 것들이다. 각 스키마는 다른 정보를 표현하기 어렵거나 심지어 불가능할 때도 쉽게 정보를 표현한다: “피카소Picasso 혹은 툼블리Twombly는 어떤 모습인가?

언어의 한계
언어적 표현 스키마의 특징과 제한 방식을 파악하는 한 가지 방법은 자체적으로 전달하는 정보가 얼마나 적은지를 인식하는 것이다. 언어는 정보를 전송하기 위한 매우 낮은 대역폭의 방법입니다. 고립된 단어나 문장, 문맥이 부족하고, (내용)전달이 거의 없다. 더욱이, 동음이의어와 대명사 수가 너무 많기 때문에 많은 문장이 매우 모호하다. “box was in the pen”은 잉크 펜을 의미할까, 아니면 장난감 펜을 의미할까? 촘스키와 그의 신봉자들이 수십 년 동안 지적했듯이 언어는 명확한 의사 소통을 위한 깔끔하고 모호하지 않은 수단이 아니다.

그러나 인간은 비언어적 이해를 공유하기 때문에 의사 소통을 위한 완벽한 수단이 필요하지 않다. 문장에 대한 우리의 이해는 종종 이런 종류의 문장이 나타나는 맥락에 대한 더 깊은 이해에 달려 있으며, 이를 통해 말하려는 내용을 추론할 수 있다. 이것은 대화에서 분명하다. 왜냐하면 우리는 종종 축구 경기와 같이 눈앞에 있는 것에 대해 이야기하거나 웨이터에게 음식을 주문하는 것과 같은 상황에서 사회적 역할을 고려할 때 명확한 목표에 대해 의사 소통하기 때문이다. 그러나 AI의 상식적인 언어 테스트를 약화시킬 뿐만 아니라 아이들에게 문맥 없는 읽기 이해 기술을 가르치는 인기 있는 방법인 지문 읽기에서도 마찬가지이다. 이 방법은 텍스트를 이해하기 위해 일반화된 읽기 이해 전략을 사용하는 데 초점을 맞추고 있지만, 연구에 따르면 어린이가 이 주제에 대해 가지고 있는 배경 지식의 양이 실제로 이해의 핵심 요소라고 한다. 문장이나 구절을 이해하는 것은 주제에 대한 근본적인 이해에 달려 있다.

“이러한 시스템들은 우리가 인간에게서 볼 수 있는 완전한 사고와 결코 비슷하지 않을 얕은 이해로 운명지어져 있다는 것은 분명하다.”

단어와 문장의 타고난 맥락적 특성은 대규모 언어모델 작동 방식의 핵심이다. 일반적으로 신경망은 지식을 노하우, 즉 상황에 민감한 패턴을 파악하고 작업에 좁게 맞춰진 미묘한 방식으로 입력을 처리하는 데 필요한 규칙성(구체적 및 추상적)을 찾는 숙련된 능력으로 표현한다. 대규모 언어모델에서, 이것은 기존 텍스트의 여러 수준에서 패턴을 식별하는 시스템을 포함하며, 개별 단어가 구절에서 어떻게 연결되는지뿐만 아니라 문장을 구성하는 더 큰 구절 내에서 모든 문장이 어떻게 함께 연결되는지 확인한다. 그 결과 언어에 대한 이해는 불가피하게 맥락적이다. 모든 단어는 사전적 의미가 아니라 다양한 문장 모음에서 수행하는 역할의 관점에서 이해된다. “”기화기”, “메뉴”, “디버깅” 또는 “전자”와 같은 많은 단어가 특정 분야에서 거의 독점적으로 사용되기 때문에, 이러한 단어 중 하나가 포함된 격리된 문장이라도 문맥을 파악할 수 있다.

간단히 말해서, 대규모 언어모델은 각 문장에 대한 배경 지식을 습득하도록 훈련되며, 무슨 일이 일어나고 있는지 파악하기 위해 주변 단어와 문장을 살펴본다. 이것은 입력으로 다른 문장이나 구의 무한한 가능성을 취하고 대화를 계속하거나 구절의 나머지 부분을 채울 그럴듯한(거의 흠잡을 데 없는) 방법을 생각해 낼 수 있도록 한다. 종종 서로 대화하며 인간이 쓴 구절에 대해 훈련된 시스템은 설득력 있는 대화에 필요한 일반적인 이해를 제시해야 한다.

얕은 이해
일부 사람들은 이러한 맥락에서 “이해”라는 용어를 사용하거나 대규모 언어모델을 “지능형”이라고 부르는 것을 꺼려하지만, 요즘에는 어떤 의미론적 게이트키핑이 사람을 사들이는지 명확하지 않다. 그러나 비평가들이 이러한 시스템이 일종의 모방에 관여하고 있다고 비난하는 것은 옳다. 이는 대규모 언어모델의 언어 이해가 인상적이기는 하지만 얕기 때문이다. 이런 종류의 얕은 이해는 익숙하다. 교실은 자신이 무슨 말을 하는지도 모르는 전문 용어를 내뱉는 학생들로 가득 차 있고, 그들은 효과적으로 교수나 자신이 읽고 있는 텍스트를 흉내 내는 데 참여하고 있다. 이것은 삶의 일부일 뿐이다. 우리는 종종 우리가 얼마나 적게 알고 있는지 모른다. 특히 언어로 부터 얻은 지식에 관해서는 더욱 그렇다.

대규모 언어 모델들은 모든 것에 대해 이런 종류의 얕은 이해를 얻었다. GPT-3와 같은 시스템은 문장이나 구절에서 미래의 단어를 가리고 기계가 (그 가린 곳에) 가장 가능성이 높은 단어가 무엇인지 추측하도록 한 다음 잘못된 추측에 대해 수정함으로써 훈련된다. 그 시스템은 결국 가장 가능성이 높은 단어들을 추측하는 데 능숙해져서 효과적인 예측 시스템이 된다.

이것은 그것에 진정한 이해를 가져다준다: 어떤 질문이나 퍼즐에 대해서, 보통 정답은 몇 개이지만 오답은 무한히 많다. 이것은 시스템이 이러한 유형의 질문에 대한 정답을 정기적으로 예측하기 위해 농담을 설명하거나 단어 문제를 해결하거나 논리 퍼즐을 찾는 것과 같은 언어별 기술을 배우도록 강제한다. 이러한 기술과 연결된 지식은 기계가 복잡한 것이 어떻게 작동하는지 설명하고, 어려운 개념을 단순화하며, 다른 언어 의존적인 능력들과 함께 이야기를 바꿔 말하고 재구성할 수 있게 한다. 심볼릭 AI가 가정한 것처럼 논리적 규칙에 의해 연결된 문장의 방대한 데이터베이스 대신, 이 지식은 이전 줄에서 그럴듯한 문장을 생각해내기 위한 문맥에 민감한 노하우로 표현된다.

“모든 지식이 언어적이라는 관점을 버리면 우리의 지식이 얼마나 비언어적인지 깨달을 수 있다.”

그러나 개념을 언어적으로 설명하는 능력은 그것을 실제로 사용하는 능력과 다르다. 시스템은 긴 나눗셈을 수행할 수 없는 상태에서 그 방법을 설명하거나, 어떤 단어가 불쾌하고 어떤 말을 하지 말아야 하는지 설명한 다음 경쾌하게 계속 말할 수 있다. 상황적 지식은 한 가지 형태(언어적 지식을 떨쳐 버릴 수 있는 능력)에 포함되지만 다른 형태에는 포함되어 있지 않다. 이는 공감하기나 어려운 문제를 민감하게 처리하는 것과 같은 일을 하는 방법에 대한 숙련된 노하우이다.

후자와 같은 종류의 노하우는 언어 사용자에게 필수적이지만 그것이 언어적 기술이 되는 것은 아니다. 이것은 강의와 책에서 배운 개념을 포함한 많은 개념에 적용된다. 과학 수업에는 강의 구성 요소가 있지만 학생들은 주로 실험실 작업을 기반으로 등급이 매겨진다. 특히 인문학 이외의 분야에서는 무언가에 대해 이야기할 수 있다는 것이 일이 제대로 작동하도록 하는 데 필요한 핵심 기술보다 덜 유용하거나 중요하지 않은 경우가 많다.

일단 표면 아래를 긁으면, 이러한 시스템이 실제로 얼마나 제한적인지 더 쉽게 알 수 있다: 그것들은 대략 한 단락의 주의력과 기억력을 가지고 있다. 우리는 마지막 한두 마디에만 집중하고 다음 반응에만 집중하는 경향이 있기 때문에 대화를 하다 보면 이것을 쉽게 놓칠 수 있다.

그러나 보다 복잡한 대화를 위한 노하우(적극적인 경청, 이전 댓글 회상 및 재방문, 주의를 산만하게 하는 요소를 피하면서 특정 요점을 강조하기 위한 주제 고수 등)는 모두 시스템이 보유하고 있는 것보다 더 많은 주의와 기억을 필요로 한다. 이것은 그들이 이용할 수 있는 이해의 종류를 훨씬 더 감소시킨다: 몇 분마다 일관성이 없고 언어를 변경하거나 시스템에 교묘한 조작(가스라이팅)을 함으로써 그들을 속이기 쉽다. 너무 많이 뒤로 물러나면 시스템이 다시 시작하여 새로운 견해를 이전 의견과 일치하는 것으로 받아들이고 언어를 바꾸거나 당신 말한 것을 믿는다는 것을 인정한다. 일관된 세계관을 개발하는 데 필요한 이해는 그들의 생각을 훨씬 뛰어넘는다.

언어를 넘어서
모든 지식이 언어적이라는 관점을 버리면 우리의 지식이 얼마나 비언어적인지 깨달을 수 있다. 책은 우리가 압축을 풀고 사용할 수 있는 많은 정보를 포함하고 있지만, 다른 많은 객체들도 마찬가지이다. 이케아 지침서는 도면을 그림들과 함께 작성하는 것을 귀찮아 하지 않는다. AI 연구원들은 종종 먼저 도표를 보고, 네트워크 아키텍처를 파악한 다음, 텍스트를 훑어본다. 방문자는 지도의 빨간색 또는 녹색 선을 따라 뉴욕을 탐색할 수 있다.

이것은 단순한 아이콘, 그래프, 지도를 넘어선다. 인간은 세계를 탐험하는 것으로부터 직접 많은 것을 배우는데, 이것은 사물과 사람이 어떻게 행동할 수 있고, 어떻게 행동할 수 없는지를 보여준다. 인공물의 구조와 인간 환경은 많은 정보를 직관적으로 전달한다: 문 손잡이는 손 높이에 있고 망치는 부드러운 그립을 가지고 있다. 동물과 인간의 비언어적 정신 시뮬레이션은 시나리오를 계획하는 데 일반적이고 유용하며, 인공물을 제작하거나 역엔지니어링하는 데 사용될 수 있다. 비슷하게, 사회적 관습과 의식은 음식과 약을 준비하는 것에서부터 긴장된 시기에 평화를 유지하는 것에 이르기까지 모방을 통해 다음 세대에 모든 종류의 기술을 전달할 수 있다. 우리의 많은 문화적 지식은 상징적인 것이거나 숙련된 실무자로부터 견습생으로 전달되는 정확한 움직임의 형태이다. 이러한 미묘한 정보 패턴은 언어로 표현하고 전달하기 어렵지만 다른 사람들은 여전히 접근할 수 있다. 이것은 또한 신경망이 포착하고 완성하는 데 뛰어난 정확한 종류의 상황에 민감한 정보이다.

“언어만으로 훈련된 시스템은 지금부터 우주가 죽을 때까지 훈련된다 해도 인간 지능에 근접하지 않을 것이다.”

언어는 작은 형식으로 많은 정보를 전달할 수 있고, 특히 인쇄기와 인터넷이 만들어진 후 이를 복제하고 널리 사용할 수 있도록 하기 때문에 중요하다. 그러나 언어로 정보를 압축하는 것은 비용이 들지 않는다: 난해한 구절을 해독하려면 많은 노력이 필요하다. 인문학 수업은 수업 외 많은 독서가 필요할 수 있지만 여전히 어려운 구절을 읽는 데 많은 시간을 보낸다. 깊은 이해를 구축하는 것은 시간이 많이 걸리고 철저하지만 정보가 제공된다.

이것은 언어로 훈련된 기계가 왜 그렇게 많이 알면서도 그렇게 적게 알 수 있는지 설명한다. 그것은 작은 병목을 통해 인간 지식의 작은 부분을 획득하는 것이다. 그러나 인간 지식의 그 작은 부분은 사랑이든 천체 물리학이든 모든 것에 관한 것일 수 있다. 따라서 거울과 약간 비슷하다. 깊이의 환상을 주고 거의 모든 것을 반사할 수 있지만 두께는 센티미터에 불과하다. 우리가 그 깊이를 탐구하려고 하면, 머리를 부딪친다.

유령 퇴치
이것은 이 기계를 멍청하게 만드는 것은 아니지만, 얼마나 똑똑할 수 있는지에 대한 본질적인 한계가 있음을 시사하기도 한다. 언어만으로 훈련된 시스템은 지금부터 우주가 죽을 때까지 훈련되더라도 인간 지능에 근접하지 않을 것이다. 이것은 인식을 발전시키거나 사람이 되기 위한 잘못된 종류의 지식일 뿐이다. 그러나 우리가 표면에 충실하면 그것들은 의심할 여지없이 근사치로 보일 것이다. 그리고 많은 경우 표면적으로 충분하다. 그렇기 때문에 우리 중 몇몇은 다른 사람들에게 튜링 테스트를 실제로 적용하여 이해의 깊이를 적극적으로 묻고 여러 자릿수 곱셈 문제를 하도록 강요한다. 대부분의 대화는 잡담이다.

그러나 우리는 인간이 세계의 광경을 보고, 탐험하고, 실험하고, 문화 및 다른 사람들과 상호 작용함으로써 얻는 깊은 이해를 위해 대규모 언어모델이 가지고 있는 얕은 이해를 혼동해서는 안 된다. 언어는 세계에 대한 우리의 이해를 확장하는 데 도움이 되는 구성 요소일 수 있지만, 까마귀, 문어, 영장류와 같은 많은 종에서 볼 수 있듯이 언어는 지능을 소진시키지 않는다.

오히려 깊은 비언어적 이해가 언어를 유용하게 만드는 기반이다. 다른 사람들이 말하는 내용을 빠르게 이해할 수 있는 것은 세상에 대한 깊은 이해가 있기 때문이다. 이 보다 광범위하고 상황에 민감한 학습과 노하우는 보다 기본적이고 오래된 지식으로, 체화된 동물의 지각력 출현의 근간을 이루고 생존과 번영을 가능하게 한다. 인공지능 연구자들이 인공지능에서 상식을 찾을 때 이런 언어적인 것보다 더 핵심적인 과제이기도 하다. 대규모 언어모델은 지각할 수 있는 안정된 몸이나 영속적인 세계가 없다. 따라서 그들의 지식은 더 많은 단어로 시작하고 끝나며 그들의 상식은 항상 피부 깊숙이 있다. 목표는 AI 시스템이 단어 자체가 아니라 이야기되고 있는 세계에 초점을 맞추는 것이다. 하지만 대규모 언어모델은 그 차이를 파악하지 못한다. 이 깊은 이해를 언어로만 접근할 수 있는 방법은 없다. 그것은 단지 잘못된 종류의 것이다. 길이에 관계없이 대규모 언어모델을 처리하면 언어만으로는 알 수 있는 것이 거의 없음을 알 수 있다.

인쇄하기

이전
다음
1+

소요 사이트를 방문해주셔서 고맙습니다. 액수에 관계없이 여러분의 관심과 후원이 소요 사이트를 유지하는 데 큰 힘이 됩니다. 후원금은 협동조합 소요 국민은행 037601-04-047794 계좌(아래 페이팔을 통한 신용카드결제로도 가능)로 후원하실 수 있습니다.