💌2024사람과디지털포럼 서구, 남성, 빅테크가 주도하는 인공지능 개발 경쟁에서 묵직한 질문들과 고민을 던지는 사람이 있습니다. 젊은 여성이자 아프리카 출신의 흑인 정체성을 지닌 인지과학자이죠.
오늘 스피커스를 통해 소개해드릴 인물은 아베바 비르하네예요. 세계에서 가장 주목받는 인지과학자로 현재 아일랜드 트리니티대 교수이자 유엔(UN)의 인공지능 고위급 자문기구 위원으로도 활동하고 있어요. 비르하네는 인공지능 개발에 사용된 데이터를 직접 검증해 '인공지능 윤리'의 새 지평을 열었다는 평가를 받고 있어요. 현재의 인공지능 시스템은 유색인종·여성·약자에 대한 부정적 고정관념을 강화한다는 점을 밝혀내 2023년 미 ‘타임’의 ‘인공지능 100대 인물’로 선정되기도 했어요.
지난 6월, 한겨레가 주최하고, 한겨레경제사회연구원이 주관한 제3회 사람과디지털포럼에서 ‘ 빅테크 주도 AI 개발은 어떻게 편견과 불평등을 재생산하나’를 주제로 한 기조연설로 큰 관심을 모았는데요. 현재 작동하는 인공지능 시스템의 편향과 불평등, 빅테크의 폐해, 디지털 식민주의 등을 주제로 통찰 가득한 연설을 했어요. 비르하네는 인공지능 개발의 이익은 빅테크 등 소수가 독점하지만, 피해는 사회적 약자들에게 돌아가는 불합리한 상황을 비판하면서 이를 바로잡기 위해서는 권력의 재분배와 같은 근본적 대안이 필요하다고 말해 많은 공감을 끌어냈어요. |
|
|
6월 12일 열린 제3회 사람과디지털포럼 기조연설자인 아베바 비르하네 아일랜드 트리니티대 교수. |
|
|
비르하네는 에티오피아 출생으로 아일랜드에서 대부분의 학창시절을 보낸 후 더블린 대학에서 컴퓨터공학 박사 학위를 받았어요. 비르하네에게는 직함이 여럿인데요. 그만큼 활동이 왕성하다는 의미겠지요. 아일랜드 트리니티대 컴퓨터 과학부 교수이며, 모질라 재단의 인공지능 책임 담당 수석 고문으로 활동하고 있어요. 인지과학자이자 컴퓨터공학자로서 비르하네의 주요 관심사는 인간 행동, 사회 시스템, 책임감 있고 윤리적인 인공지능입니다.
비르하네는 유엔이 설립한 인공지능 관련 고위급 자문기구 위원으로도 활동하고 있는데요. 이 기구는 6개 대륙 39명의, 학계, 정책분야 및 기업 측을 대표하는 인물들로 구성되어 있어요. 오픈에이아이(AI)의 전 CTO 미라 무라티, 마이크로소프트의 책임 있는 인공지능 담당 임원 나타샤 크램튼, 소니의 CTO 히로아키 키타노, 구글의 연구, 기술 및 사회 담당 수석 부사장 제임스 만리카, 허깅 페이스 연구 책임자 나즈닌 라자니 등 그야말로 현재 인공지능을 움직이는 거물들이 대거 포함된 막강한 기구입니다. 인공지능으로 인한 위험과 향후 과제를 분석하고 국제 거버넌스에 대한 권고안을 제시하기 위해 구성되었어요.
비르하네가 2024 사람과디지털포럼에서 발표한 연설, 대담, 원탁토론에서 주목해야 할 내용을 소개해볼게요.
|
|
|
‘빅테크 주도 인공지능 개발은 어떻게 편견과 불평등을 재생산하나’를 주제로 기조 강연 후 천현득 서울대 교수(과학철학)와 함께 토론하는 비르하네 교수. |
|
|
① 인지과학자가 본 인간지능과 인공지능의 차이 |
|
|
인공지능의 눈부신 발전을 말할 때 우리는 종종 ‘인간의 능력을 뛰어넘는 인공지능 모델’ 또는 ‘인간보다 더 나은 성과를 내는 모델’이라고 표현합니다. 비르하네는 인지과학자로서 인공지능과 인간지능이 비교되는 것에 대해 “인간과 인공지능을 비교하는 것은 사과와 오렌지를 비교하는 것처럼 무의미하며 우리는 아직 인간의 인지가 무엇인지 완전히 파악하지 못했고, 기계 지능과 비교할 수 있는 단일한 인간 표준도 없다”고 말합니다.
그는 “인공지능이 가치와 상식을 지닐 수 있을까?”라는 질문에 대해서도 비판적 입장을 견지합니다. “인공지능은 여전히 기본 데이터를 되풀이하는 확률적 앵무새에 머물러 있다”면서 “인공지능의 가치는 개발자와 독립적으로 존재할 수 없으며 결국 그것을 만드는 사람들의 가치로 귀결”된다고 말합니다. 이 가치는 성과, 일반화, 효율성, 규모 등으로 결국 권력을 기술 기업에 집중시키는 효과를 낳는다고 비판합니다.
|
|
|
“빅테크가 주도하는 인공지능 개발은 유색인종·여성·약자에 대한 부정적 고정관념을 강화해 사회적·역사적 불평등을 악화시킵니다.” 비르하네가 던지는 가장 묵직하고 선명한 메시지를 요약하면 이렇게 표현할 수 있습니다. 비르하네는 이를 입증하기 위해 동료들과 엄청난 양의 데이터 분석을 시도했는데요.
“지난 수년 동안의 경험적 연구 결과들에 따르면 인공지능 시스템은 실패했고, 그로 인한 부정적 영향은 사회 주변부의 개인과 커뮤니티에 집중되고 있습니다. 나와 동료들은 대규모 학습 데이터 세트를 분석하면서 규모가 커질수록 혐오 콘텐츠와 인종·성별 고정관념도 증가한다는 사실을 밝혀냈습니다.”
무슨 의미인지 좀 더 살펴볼까요? 인공지능 개발에 사용되는 데이터세트는 서구·백인·남성 등 주류의 의견을 집중적으로 반영하여 전체를 대표하는 경향이 있습니다. 이 과정에서 비서구·유색인종·여성 등 비주류 집단의 의견은 구조적으로 배제되어, 차별, 격차와 불평등도 더 확대될 수 있습니다. 이렇듯 인공지능이 특정 문화나 언어에 편향될 경우 결국 ‘디지털 식민주의’로 이어져, 권력의 집중, 불평등, 불공정도 심화한다고 비르하네는 강조합니다.
|
|
|
비르하네가 말한 ‘디지털 식민주의’에 대해 좀 더 살펴볼까요? 이제 인공지능 기술은 사법, 대출심사, 그리고 채용에 이르기까지 각 영역에 활용되면서, 여성·유색인종·저소득층에 대해 감시를 강화하거나 부정적인 평가를 함으로써, 불평등과 불공정을 심화할 수 있습니다. 또한 서구의 빅테크가 개발한 인공지능은 저개발국의 복잡한 사회적·역사적 상황이나 가치·맥락을 고려하지 않고 해결책을 강요하기 때문에 백인 남성 등 주류의 가치관이 ‘지배적인 것’으로 간주됩니다.
비르하네는 이러한 현실을 꼬집어 “우리는 당신의 문제가 무엇인지 알고 있으니 우리 기술로 문제를 해결할 수 있다”는 식민주의적 사고방식을 비판합니다. 이러한 인식이야말로 토착 기술의 발전을 저해하고 억압해, 권력 불균형과 불평등을 더욱 심화시키기 때문이죠. 주목할 것은 데이터 규모가 확장되면 자연스럽게 차별·편견·혐오 콘텐츠도 약화하거나 사라질 것이라는 기대와 달리 오히려 더 강화되고 있다는 점인데요. 이에 대해 이렇게 설명하죠.
“규모의 확장은 머신러닝 분야에서 가장 중요한 가치 중 하나로, 수많은 문제에 대한 해결책으로 기대를 모았습니다. 많은 논문들은 ‘규모가 잡음을 압도한다’며 규모가 커지면 좋은 것, 나쁜 것, 추한 것이 균형을 이루어 ‘실체적 진실’에 더 근접할 것이라고 기대했으나, 실증 분석 결과, 샘플 규모가 더 커지면서 혐오 콘텐츠의 양도 대폭 증가했습니다.” |
|
|
뉴질랜드의 비영리 라디오 방송국 '테히쿠미디어(Te Hiku Media)'는 마오리족 언어를 소생시키기 위해 커뮤니티 주도의 인공지능 개발을 시도했다. 이들은 소수 민족과 약자, AI 개발에 발언권이 없는 지역사회를 빈곤하게 만들고 있다고 비판한다. |
|
|
비르하네는 빅테크를 비판하면서 일하는 사람들, 약자들을 위한 인공지능 규제를 강조합니다. “공격적인 데이터 수집, 다크 패턴으로부터 사람들을 보호하는 안전장치를 마련해야 하고, 특정 기술이 시장에 출시되기 전 철저한 테스트를 거치고 거부 할 수 있도록 하되 위반할 때엔 상당한 벌칙을 부과해야 합니다.”
비르하네는 또한 빅테크 중심 인공지능 개발에 맞서 지역민들의 ‘구체적인 삶의 경험’을 고려할 것을 대안으로 제시합니다. 그가 주목하는 것은 뉴질랜드 마오리족 커뮤니티 사례인데요. 비르하네는 <한겨레>와의 인터뷰에서 이렇게 말하죠.
“뉴질랜드의 마오리족 언어 기술 프로젝트는 실제 존재하는 문제를 해결하고 힘 있는 기업이나 개발자가 아닌 소규모 커뮤니티에 혜택을 주려는 사례로 관심을 끌고 있습니다. 이 프로젝트는 마오리족 언어와 문화를 보존할 목적에서 시작되었죠. 마오리족은 영국 식민지 시대에 수치심과 체벌을 당하며 자신들의 언어 사용을 금지당했습니다. 한 방송국이 죽어가는 마오리족 언어를 소생시키기 위해 커뮤니티의 원로들로부터 음성-텍스트 데이터를 수집했고 젊은 세대 교육을 위해 음성 인식 기술을 구축했어요. 이 프로젝트는 디지털 호스팅 플랫폼을 구축하고 데이터 주권 규약을 수립해 커뮤니티가 데이터와 기술에 대한 완전한 자율성과 통제권을 가질 수 있도록 했습니다. 서구의 패권에서 벗어나 지워진 역사를 복원하며, 현지 주민들의 지적 기여를 높이 평가하는 정의로운 기술입니다.”
앞서도 언급했듯이 비르하네는 유엔의 인공지능 고위급 자문기구 위원으로도 활동하고 있어요. 그는 “현재 거버넌스 기구 중 유엔 인공지능 자문기구에는 산업계·학계·정부·시민사회 등 다양한 이해관계자가 참여합니다. 이들의 견해와 가치를 잘 조정하고 대변하는 역할은 매우 중요하지만 어렵습니다. 주변부 사람들의 견해와 가치가 체계적으로 배제되거나 무시되기 쉽습니다”라며 유엔 역할의 의미와 한계를 짚습니다. |
|
|
“영광스럽게도 2022년 달라이라마와 만나 빅테크의 책임과 의무에 대해 대화를 나누었어요. 우리가 직면한 가장 큰 문제는 빅테크가 지닌 막강한 파워와 영향력입니다. 빅테크는 대중에게 지대한 영향을 미치지만, 막상 책임은 지지 않아요.“
비르하네는 개발자들의 역할에 대해서도 주목합니다. “기술의 대부분은 개인과 집단에 상당한 영향을 미치기에 개발자들은 데이터에 담긴 지식의 정치적 함의를 질문하고 비판적 인식을 지녀야 합니다.” 그가 주목하는 대안은 “사회과학·인문학·시민사회 단체 등 여러 분야의 전문가와의 협력”입니다. 개발자들이 공학의 틀안에 갇히지 말고 사회 전체의 구조, 역사적 맥락속에서 사고해야 한다는 의미로 보입니다.
기조강연 이후, 비르하네 교수와 대담에 나선 천현득 서울대 과학학과 교수는 인공지능의 윤리에 대해 날카롭고 통찰력있는 질문을 던졌는데요. 그는 “빅테크 주도의 인공지능 개발 구조를 바꾸기 위해서는 기술의 영향을 받는 사람들이 직접 목소리를 내고 참여하는 것이 매우 중요”하다고 짚었습니다. 하지만 “시민들의 참여를 위한 공론장은 빅테크가 주도하는 디지털 기술의 영향하에 있어, 그 특성상 필터 버블이나 반향실 효과에도 취약할 수 있기 때문에 다양한 관점의 의견들이 대화를 통해 합의를 하기 어렵다”고 말합니다. 빅테크로부터 자유로우면서도 건강한 공론장은 어떻게 가능할까요? 참 어렵고도 중요한 대목입니다.
|
|
|
📝이번 <스피커스> 어떠셨나요?
‘사람 넘보는 AI, 인간 가치도 담아낼 수 있을까’를 주제로 열린 사람과디지털포럼의 내용을 4회에 걸쳐 살펴봤습니다.😊 AI에 대한 기대와 두려움이 공존하는 이때, 테드 창의 강연 내용을 다시 짚어봅니다.
생성형 인공지능은 엄청난 양의 데이터 분석을 통해 작동합니다. 하지만 인간의 인지가 어떻게 작동하는지는 알 수 없습니다. 또한 생성형 인공지능은 인간 노동을 절감할 수도 없습니다. 지금 인공지능이 하는 작업은 인간이 피하고 싶은 작업을 대신하는 게 아니기 때문입니다. 생성형 인공지능은 인간 간 커뮤니케이션을 대신하면서 우리가 예술에 대해 가지는 기대 수준을 낮춥니다. 이 세상에 존재하는 의미를 퇴색시키기 때문에 대단히 비인간적입니다.
|
|
|
|