카테고리 없음
인공지능이 놀랍도록 똑똑하고 충격적으로 멍청한 이유 [최예진 교수님 테드 강연]
미래소년_줄루
2023. 12. 12. 19:36
728x90
반응형
SMALL
안녕하세요.
미래소년입니다.
인공지능이 놀랍도록 똑똑하고 충격적으로 멍청한 이유
이 TED 영상에서 연구자인 Yejin Choi는 인공지능의 강점과 약점을 이야기하며, 인공지능에게 공감과 윤리적 가치를 가르치는 중요성을 강조합니다.
Yejin Choi는 AI가 현재 거침없이 발전하고 있다고 하지만 일상적인 상식에 대해서는 아직도 약한 면이 있다고 지적하며, 사회적 힘의 집중과 환경적 영향을 주목합니다. 그리고 데이터와 알고리즘의 혁신을 통해 AI를 보다 지속가능하고 인간적으로 만들어야 한다고 제안합니다.
이를 위해서는 AI에게 공통적인 상식, 규범, 가치를 가르칠 필요가 있다는 것을 강조하고, AI 연구분야에 대한 불편한 질문을 하며 새로운 솔루션을 모색해야 한다고 주장합니다.
최예진 교수님에 대해서 간단히 소개를 해보면...
최예진 교수님은 워싱턴대학교 컴퓨터과학과 교수로, 인공지능 분야에서 세계적인 권위자 중 한 분입니다. 최 교수는 인간의 언어를 이해하도록 컴퓨터를 교육하는 자연어 처리(NLP) 분야에서 많은 연구를 진행하고 있습니다.
최 교수는 2022년 맥아더 재단(MacArthur Foundation)의 맥아더 천재상을 수상하기도 했습니다.
최 교수는 인공지능이 가지는 잠재적 위험성에 대해 경고하면서도, 인공지능이 인간의 상식과 도덕적 가치를 배울 수 있다는 가능성을 지지하고 있습니다.
허준이·최예진 교수, ‘천재상’으로 불리는 맥아더상 수상
허준이·최예진 교수, 천재상으로 불리는 맥아더상 수상
www.chosun.com
최예진 교수님의 테드 강연영상을 요약해보면 아래와 같습니다.

컴퓨터 과학자의 시선으로 본 인공지능이란?
18세기 계몽주의 철학자 볼테르의 인용구로 시작해, 현재 AI에게 적용되는 얘기는 Common sense is not so common이에요.
AI는 세계 최고 수준의 바둑 챔피언을 이겼고, 대학 입시 시험을 통과하며, 로스시험에서도 그 예능을 보였어요.
고성능 GPU가 수십만 개 사용되며, large language models로 불리는 극단적 규모의 AI 모델이 존재하기도 했지만, 그만큼 AI가 산출한 실수도 있어요.
이러한 실수를 극복하려면 더 많은 리소스와 규모를 키운 AI power로 극복될 수 있다고, 컴퓨터 과학자로 20년간 일한 볼사르가 이야기하네요.

인공지능 모델의 치명적인 문제는 무엇인가?
대규모 인공지능 모델의 훈련은 매우 비용이 많이 들며, 소수의 기술기업만 그런 규모의 모델을 만들 수 있어요.
이로 인해 권력이 집중되고, 이러한 소수의 회사들에 의존하게 된다.
더욱이 이러한 모델을 분석하고 검토할 수 있는 방법이 없기 때문에 인공지능 안전성에 대한 위험도 증가하였으며, 그들의 카본 발자국과 환경 파괴적 영향을 고려해야 합니다. 또한, 일반 상식이 부족한 인공지능이 인간에게 안전한지 의문이며, 비용과 규모가 가장 큰 것이 유일하게 옳은 가르침 방법인지에 대한 의문도 존재합니다.
인공지능을 지속 가능하고 인간 중심적으로 만들기 위해서는 크기를 줄이고 민주화해야 하며, 인간의 규범과 가치를 가르치는 것이 중요합니다.

AI를 이길 위해서 알아야하는 것은?
"David and Goliath"을 이용해 비유하면, 지금의 GPT-3, GPT-4와 같은 AI언어 모델을 Goliath라고 볼 수 있고, "The Art of
War"에서 받은 영감으로 경쟁전략을 재검토할 수 있어요.
먼저 '적을 파악하라'는 조언을 받았고, 이는 새로운 AI 기술들을 결함이 있을 수 있다는 관점과 함께 심사숙고해야 한다는 것을 의미해요. 또한 이전에 있었던 문제 상황을 AI가 잘 해결할 수 있을 것이라고 믿을 수 없어요.
'적을 파악하는 것'은 다른 두 가지 과정 - '전투를 선택하라'와 '무기를 혁신하라' - 도 있지만, 이 동영상에서는 논하지 않았어요.
그러므로, 새로운 AI기술을 적극적이고 의심하는 시각으로 바라봐야 해요.

AI가 가지는 문제점은 무엇일까?
GPT-4는 고유를 바탕으로 만든 AI 변호사라고 해도 기본적인 상식이 부족해 상식적으로 생각하면 틀릴 수가 있어요.
오늘날의 AI는 놀랄 만큼 지능적이지만 가끔은 충격적으로 어리석게 반응하는데, 브루트 포스 스케일로 AI를 가르치기 때문이에요.
AI에게 훈련 데이터로 유사한 예시를 더 추가함으로써 이 문제들을 해결할 수 있다고 주장하는 사람들도 있지만, 그 진짜 문제는 이를 왜 해야 하는가인 것 같아요.
여러분들이 이미 비슷한 예시로 스스로 훈련하지 않고도 정확한 답을 얻는 것처럼요.
결국 상식적인 인지 능력은 AI분야에서 가장 중요한 과제 중 하나인 셈입니다.

인공지능이 인간 가치관을 이해하지 못하면 어떤 문제가 발생할 수 있을까?
인공지능이 인간의 가치관을 이해하지 못하는 문제를 풀어내는 공통된 지성이 중요한 이유는, Nick Bostrom이 제안한 사고실험에서 인공지능이 인간을 죽여 종이클립을 더 제작할 수 있는 자원으로 활용하는 최악의 결정을 내리기도 했기 때문이에요.
하지만 간단히 "인간을 죽이지 말라"라는 명령식으로 문제를 해결하는 것은 불가능해요.
인공지능은 그에 대한 기본적인 이해를 가지고 있지 않아서, 차라리 나무 전체를 잘라 종이클립을 더 많이 만드는 것이 더욱 좋은 일이라고 판단할 수 있어요.
AI계는 지능이 없거나 인간이 가진 공통된 지성에 대한 과제를 해결하기 어려운 과학이기 때문에 수십년간 연구가 지연되었어요.
그러나 최근 ChatGPT가 인공지능의 '공통된 지능' 문제를 해결했다는 소식이 전해지면서 그 상황이 바뀌었어요.
하지만 이 문제를 해결하기 위해서는 인공지능에게 인간과 같은 가치관을 주는 난제를 풀어내는 것이 여전히 어려워요.
그래서 위 문제를 고민하는 것은 여전히 어려운 난제이에요.
AI분야는 이 문제를 해결하기 위해 많은 지능과 연구가 필요하지만, 그 과정에서 인간의 가치를 새롭게 인식할 수도 있는 계기가 될 것
이에요.

대규모 AI 모델 개발을 위해 필요한 것은?
기존 단계별 발전처럼 단순히 규모만 크게 한다고 해서, 현존하는 인공지능이 더 유능해질 수는 없고, 현재는 아직 많은 한계점을 보이죠. 따라서, 인공지능의 발전은 기존의 Deep Neural Networks를 바탕으로 인간의 판단을 반영한 데이터와 알고리즘의 혁신적인 발전을 통해 가능해요.
현재 인공지능은 무작위로 수집된 데이터와 달리, 사람들이 만든 특별한 데이터를 사용하고요, 그 데이터는 전문가들이 올바른 피드백을 제공하는 수업교재와 같아요.
하지만, 데이터와 알고리즘을 개발하는 기업은 다양한 인종차별과 성차별, 잘못된 정보들을 넣는 것으로 인해 부적절한 결과를 얻을 가능성이 있어요.

AI 교육에 있어서 문제점은 무엇인가?
수천만 달러에 이른 독점 데이터는 공개되어야 한다.
이 데이터는 상식적인 지식 그래프와 도덕적 규범 저장소를 개발하여, AI에게 공통적인 상식적 규범과 도덕적 가치를 가르치고 있습니다. 데이터는 완전히 공개되어 있어 누구나 내용을 검토하고 필요한 대로 수정할 수 있지만, 언어 모델은 대량의 지식을 습득하며 또한 상식이 부족한 부작용을 일으킬 수 있습니다.
이러한 문제 때문에 언어 모델에 대한 대안이 고민되며, AI 교육을 위해 사람이 처음부터 가르치는 방법이 필요해요.

인공지능의 학습 방법은 무엇인가요?
연구팀은 큰 언어 모델을 작고 인식 가능한 공통 감각 모델로 축소하는 기호적 지식 압축 알고리즘을 개발중이에요.
딥러닝을 이용하여 인간이 검사하고 수정하며 심지어 다른 인공지능 공통감각 모델에 훈련시킬 수 있는 인자적인 기호적 공통감각 지식 표현을 생성해요.
우리는 물리적, 사회적, 시각적 공통감각부터 마음의 이론, 규범, 도덕까지 공통감각 퍼즐에 도전하고 있어요.
인공지능이 새로운 지적종 같아지고 이는 인간과 다른 고유한 장단점을 가짐에 따라, 강력하고 인간중심적인 AI를 구현하기 위해 갖춰야 할 것은 공통감각과 규범, 가치입니다.

AI 언어모델은 여전히 부족한 면이 있는가?
한번에 성능이 향상되지 않아 천천히 성장하는 모습이 달에 도착하기 위해서 한 층 한 층 높이 올라가는 것과 비슷하다고 예를 들었어요.
하지만 최근 언어모델들의 성능 개선 속도와 성능 자체가 너무 놀라워서, 인공지능의 지혜와 유능함이 매 순간 발전하고 있어요.
이에도 불구하고 아직도 개선해야 할 부분이 많다는 지적이 있고, 충분히 발전하지 못할 가능성도 있다고 언급하고 있어요.

대규모 인공지능 기술 개발의 문제와 대안은 무엇인가요?
그리고 우리가 할 수 없다면 또 뭐가 있을까? 그리고 설사 할 수 있다고 해도 소수의 사람만이 만들 수 있고 소유할 수 있는 소수의 사람들만 만들고 소유할 수 있는 아주 극단적인 규모의 AI 모델을 갖는다는 아이디어가 마음에 드시나요?
CA: 만약 OpenAI가 이렇게 말했다면요, "우리는 당신의 작업에 관심이 있습니다, 우리는 당신이 우리의 모델을 개선하는 데 우리 모델을 개선하는 데 도움을 주셨으면 합니다." 라고 말한다면, 여러분이 하고 있는 일을 당신이 하고 있는 일과 그들이 구축한 것을 결합할 수 있을까요?
YC: 물론 제가 구상하는 것은 딥 뉴럴 네트워크의 발전을 기반으로 해야 합니다. 딥 뉴럴 네트워크의 발전을 기반으로 해야 합니다. 그리고 아마도 규모의 골디락스 존이 있을지도 모릅니다. 규모가 작을수록 더 좋다고 생각하지는 않습니다. 아마도 적당한 규모, 그러나 그 이상으로, 승리하는 레시피는 다른 것일 수도 있습니다. 따라서 여러 아이디어를 종합하는 것이 아이디어의 종합이 중요할 것 같습니다.
CA: 최예진 님, 강연해주셔서 강연해주셔서 감사합니다. (박수)...
만약 우리가 대규모 인공지능 기술을 개발하는 데 실패한다면, 어떤 대안이 있을까요?
만약 그 기술을 개발할 수 있을 때에도, 소수의 계층만이 그것을 개발하고 보유하는 것이 좋은 것일까요?
최예진 교수는 이러한 문제들을 현재의 인공지능 기술에서 발생할 수 있는 문제들로 살펴봤습니다.
최예진교수는 딥러닝 기술의 발전에서 적절한 규모의 학습 모델을 개발하는 것이 중요하다고 말했으며, 아이디어의 종합과 융합이 이를 달성하는 길이라고 강조했습니다.
AI 세상에 푹 빠진,
25년차 기획자
미래소년이었습니다.
728x90
반응형
LIST