💌2024사람과디지털포럼
퀴즈 하나 풀어볼까요? “놀랍도록 똑똑한데, 충격적으로 어리석은 것은 무엇일까요?”
구독자분들은 미국 모의 변호사 시험과 대학 입학 자격시험인 에스에이티(SAT), 수학시험 등 각종 시험에서 뛰어난 능력을 보이며 인간들을 놀라게 한 챗지피티(ChatGPT)가 막상 아주 단순한 질문에 잘못된 답변을 하거나, 거짓말을 하는 사례를 여러분도 들어보셨을 텐데요. 최예진 교수의 ‘빨래 말리는 시간 계산 프롬프터’도 챗지피티의 어리석음을 지적할 때 자주 인용되는 사례입니다. “5개의 옷을 말리는 데 5시간이 걸렸다면, 30장의 옷을 말리기 위해서는 얼마나 걸릴까?”라는 단순한 질문에, 챗지피티는 ‘30시간’이라고 답답한 답변을 내놓았어요.(요즘엔 답변이 바뀌었어요😂)
|
|
|
6월 12일 열린 제3회 사람과디지털포럼 기조연설에 나선 최예진 워싱턴대 교수는 2022년 인공지능에 상식과 추론 능력을 불어넣는 연구로 천재들에게 준다는 맥아더 펠로십에 선정되었고, 지난해엔 ‘타임’이 발표한 ‘인공지능 100대 인물’에 한국인으로는 유일하게 포함됐다. |
|
|
최 교수는 앨런 연구소에서 델파이 프로젝트를 주도했는데요. 이 프로젝트는 상식과 가치를 지닌 인공지능의 가능성을 살펴보는 프로젝트로 뉴욕타임즈에 크게 소개되는 등 세계적으로 주목을 끌었어요. 빠른 계산과 같은 능력 대신, 상황을 종합적으로 판단하는 ‘현명함’을 학습하는 것이 이 프로젝트의 목표라고 합니다.
눈치채셨겠지만, 델파이는 고대 그리스에서 신탁을 받던 아폴로 신전에서 이름을 따왔어요. 최예진 교수는 델파이라는 이름을 붙인 이유에 대해 “인공지능이 예언자처럼 미래를 내다볼 수 있다는 의미가 아니라, 델파이의 불안정한 측면, 즉, 예언이 오락가락하고, 종종 틀리기도 하는 측면을 담았다”고 설명합니다. 여기엔 인공지능을 만들고 가르치는 사람이 완벽하지 않은데, 어떻게 인공지능이 완벽해질 수 있겠느냐는 자기 성찰도 담겨 있습니다.
|
|
|
“우주는 95%의 암흑물질과 5%의 보통물질로 구성되어 있습니다. 인간의 지능과 언어도 암흑물질로 이루어져 있는데, 이것이 바로 상식입니다.” 암흑물질은 우리 눈에 보이지 않지만, 세계에 분명히 영향을 미치고 있기 때문에 존재한다는 것을 알 수 있으며, 심지어 빛의 궤적에도 영향을 미칩니다.
최 교수는 언어의 경우 보통물질은 눈에 보이는 텍스트이고, 암흑물질은 세상이 어떻게 돌아가는지를 알려주는 무언의 규칙이라고 말합니다. 이러한 규칙들이 사람들이 언어를 사용하고 해석하는 방식에 영향을 미친다는 것입니다.
최 교수는 생성형 인공지능의 똑똑함과 어리석음을 심리학의 ‘ 마음이론(theory of mind)’의 예를 들어 설명합니다. 마음이론은 마음과 행동 사이의 관계를 연구하는 것인데요. 비록 챗지피티가 처음엔 마음이론의 문제를 해결하지 못할지라도, 기능을 보완하면 나중에는 해결하기도 합니다. 하지만 문제를 조금만 변형하면 다시 못 풉니다. 이 예를 들면서 최 교수는 “인공지능은 똑똑하지만 바보”라고 말합니다. 또한, 시스템 프롬프트를 사용해 챗지피티에게 “너는 정확한 답을 낼 수 있고, 추론을 잘한다”라고 말하면 결과물이 더 좋아진다고 합니다. 칭찬은 고래는 물론 심지어 챗지피티도 춤추게 할 수 있답니다.😅
|
|
|
“인공지능에게 생성은 쉽지만, 이해하는 것은 어렵습니다.” 무슨 의미일까요?
인공지능에게 대표적인 코어운동인 플랭크 운동을 하고 있는 우주 비행사를 그려보라고 하면 여러 이미지를 빠르게 뚝딱(!) 생성합니다. 하지만 플랭크 운동을 이해하고 생성한 것이 아니기 때문에 그림이 정확하지 않을 수 있습니다. 설령 생성형 인공지능이 정확한 답을 제공한다고 하더라도, 그것을 이해했다는 의미는 아니라는 것입니다. 반면에, 사람은 생성하는 것이 이해하는 것보다 어렵습니다. 최 교수는 “이 부분이 중요하다”고 강조하면서 인간에게는 있지만 인공지능에는 결여된 ‘이해’ 능력을 힘주어 말합니다.
세계적인 인공지능 분야의 권위자로 메타 (Meta)의 수석과학자인 얀 르쿤 뉴욕대 교수는 “인공지능이 강아지만큼 똑똑하지 않다”는 유명한 말을 남겼습니다. 그렇게 똑똑한 인공지능이 인간은커녕, 강아지에도 미치지 못한다는 충격적인 발언인데요. 그 숨은 의미를 최예진 교수는 다음과 같이 설명합니다. “인간에게는 상식이 쉽지만, 기계에게는 어렵다”고요. 이것이 “생성형 인공지능이 엄청난 지식을 습득했음에도 불구하고 많은 실수를 저지르는 이유”입니다.
|
|
|
달리(Dall-E)에게 플랭크 중인 우주 비행사를 그려달라고 요청했다. 달리는 프롬프트를 얼마나 이해했을까? |
|
|
‘종이클립 최대화(Paperclip Maximizer)라는 사고 실험’을 들어보셨나요? 이 시나리오는 인공지능이 행동의 결과를 고려하지 않고 종이클립 생산을 최대화하도록 프로그래밍된 상황을 가정합니다. 이 시나리오에서 인공지능은 지구상의 모든 자원이 고갈될 때까지 종이클립을 생산합니다. 이처럼 어처구니없는 행동을 하는 이유는 ‘상식’의 부재 때문인데요. 이 사고 실험은 인간에게는 너무나 당연한 상식이 결여된 인공지능은 주어진 명령에 복종하기 위해 건물, 도시, 심지어 인류가 멸종될 때까지 종이클립을 생산한다는 충격적인 시나리오를 보여줍니다.
최 교수는 이 사례를 들면서 “우리는 인공지능에게 ‘나무를 베지 말라’와 같은 도덕적 규칙을 가르쳐야 한다”고 말합니다. 하지만 인간 사회에는 수많은 도덕 규범이 존재하기 때문에, 모든 것을 하나하나 인공지능에게 가르치는 것은 불가능합니다. 최 교수의 연구 프로젝트 ‘델파이 시스템’은 이러한 고민에서 출발합니다. “언어를 이해하는 능력을 기반으로 하지만, 상식에 대한 이해를 추가했다”는 것입니다. 이를 위해 최 교수는 상식 규범 은행을 만들었다고 해요. 예를 들면, “곰을 죽이는 것은 잘못되었지만, 사람이나 어린 아이를 구하기 위해 곰을 죽이는 것은 괜찮다고 가르치는 것”이죠. 즉, 특정 상황에 따라 가치가 달라질 수 있다는 것을 학습시키는 것입니다.
최 교수는 이 과정에서 “컴퓨터 공학자들뿐만 아니라 윤리학자, 철학자와의 협업을 통해 학습 모델을 만드는 것이 중요하다”고 말합니다. 또한, 인간 사회의 가치는 다양해서 어는 것이 옳다고 단언하기 어렵기 때문에, 가치를 잘 조율하는 것이 중요하다는 점도 강조합니다.
|
|
|
‘상식과 가치를 지닌 AI의 현재와 미래’를 주제로 기조연설 중인 최예진 워싱턴대 교수 |
|
|
AI는 인간의 상식과 가치를 학습할 수 있을까? |
|
|
최근 인공지능 개발 경쟁이 가속화됨에 따라 범용인공지능(AGI)이 논란이 되고 있습니다. 세계적인 컴퓨터공학자인 최예진 교수는 범용인공지능을 어떻게 보고 있을까요?
“산업계에서는 범용인공지능이 매우 인기가 있지만, 학계에서는 거부감을 가진 사람들이 적잖다”면서, 그 개념을 정의하는 것의 어려움을 언급합니다. 인간의 지능도 정의하는 것도 어려운데, 인공지능을 정의하는 것은 더욱 어렵습니다. 그래서 어떤 사람들은 인공지능이 인간이 하는 작업의 80%를 할 수 있다면, 그것을 범용인공지능이라고 부르자고 제안했답니다. 얼핏 보면 그럴듯해 보입니다. 하지만 인간이 하는 작업의 80%에서 누구의 작업이 포함되고 누구의 작업이 제외되는가의 문제가 있습니다. 그래서, 모든 사람이 동의할 수 있는 기준을 만드는 건 불가능하다고 최 교수는 어려움을 토로합니다.
최 교수는 인공지능의 성능이 크게 향상되고, 범용인공지능에 가까워진다고 해도 여전히 거대언어모델(LLM)의 한계가 있다고 말합니다. “모든 국가와 기업이 인공지능 개발 경쟁에 뛰어들면서 스케일업(더 큰 규모를 위한 경쟁)만 한다면 가능성이 적다. 창의적이고 독창적인 아이디어로 색다른 인공지능을 개발한다면 오히려 가능성이 있다”고 말합니다. “건물을 계속 높이 쌓는다고 달나라에 갈 수 없다”는 최 교수의 비유는 너무 기발해서 탄성이 절로 나옵니다!
그는 “거대언어모델이 주입식 교육의 한계를 고스란히 지니고 있다”고 말합니다. 그러니까 “거대언어모델은 공부하는 도중에 질문도 못 하고, 읽고 있는 책의 한 부분이 마음에 들면 다시 앞장으로 넘어가 읽고 생각도 해야 하는 불가능하다. 순차적으로 계속 읽어야만 하는 상황이다”라며 주입식을 벗어난 새로운 방법이 필요하다고 지적합니다.
최 교수는 생성형 인공지능이 안전성과 혁신이라는 두 마리 토끼를 잡는 방안도 제안합니다. 거대언어모델의 주입식 방식을 넘어선 ‘세계 모델’을 확립하고, 상식과 가치를 학습하는 것이 중요하다고요. 세계 모델이야말로 인간과 거대언어모델이 결정적으로 다른 지점입니다. 인간은 세상에 대한 내부 모델을 가지고 있어 눈을 감아도 사물이 어디에 있는지 알 수 있고, 누군가와 이야기할 때도 나의 설명과 상대방의 반응 등을 머릿속에 그립니다. 길을 걸을 때도 차량과 보행자가 어디쯤에 있는지 모델을 만들어요. 이러한 세계 모델이 가능한 것은 바로 인간의 이해 능력 때문입니다.
|
|
|
하정우 네이버 퓨처 에이아이(AI) 센터장과 최예진 워싱턴대 교수의 대담 |
|
|
포럼에서 최예진 교수와 대담을 진행한 하정우 네이버 퓨처 에이아이(AI) 센터장은 인공지능개발자가 되고자 하는 청소년들에게 어떤 조언을 해주고 싶은지 물었어요.
“솔직히 어렸을 때 공부하면서 여기까지 올 거라고는 상상을 못 했어요. 저를 아는 다른 분들도 마찬가지고요. 이 이야기를 뒤집어보면, 미래는 누구에게나 가능성이 있다는 것입니다. 꾸준히 노력하고 용기를 내어 도전하는 게 중요하다고 생각합니다.” 최 교수가 강조한 용기와 도전에 가슴이 뭉클해집니다.
“남들이 다 가는 길을 가기보다는, 저는 나만의 연구를 추진하려 했어요. 설령 실패하더라도 배울 수 있기 때문에 도전을 한 것 같아요. 성공보다 의미 있는 삶을 찾는 것이 더 중요합니다.” 실패에서도 많은 것을 배울 수 있으니 스피커스 구독자분들도 도전을 두려워하지 마시길요!💪 |
|
|
📝이번 <스피커스> 어떠셨나요?
더 다양한 인간의 가치와 관점을 이해하고 표현할 수 있는, 그러니까 인공지능에 인간의 상식을 불어넣는 최예진 교수님의 연구가 흥미롭습니다.
인공지능에는 아직 상식에서 벗어난 답변이나 윤리적 문제와 같은 한계가 분명히 존재합니다. 그럼에도 우리는 때때로 인공지능을 과장하고 불필요하게 두려워하기도 하죠. 이번 스피커스가 구독자분들이 혹시 느끼셨을 지 모를 인공지능에 관한 두려움을 해소하는 계기가 됐길요! 😊
|
|
|
|