— 당신은 책에서 기존의 인공지능은 사람이 부여한 목표를 달성하도록 최적화한 ‘표준모델’이라는 점을 지적하고 , ‘인간의 선호를 학습하도록 하는 새로운 모델’을 제시했다 . 그런데 인간도 자신의 목표를 모르고 끊임없이 변해가지 않는가? 기계가 이러한 인간의 불확실성을 학습할 수 있는가? 이러한 인간을 학습하도록 하는 것은 기계가 예측 불가능하게 되어 인간의 통제를 벗어나는 위험한 상황이 되지 않을까?
“ 불확실성은 두 가지다 . 첫째는 인간의 목표에 대한 기계의 불확실성이다 . 기계가 처음엔 사람의 선호를 모른 채 시작해도 시간이 지나며 많은 것을 배우게 된다 . 둘째 , 사람이 자신의 미래에 대해 무엇을 원하는지 모르는 인간 스스로의 불확실성이다 . 두가지 불확실성은 결합해 기계가 인간을 돕는 것을 어렵게 만들지만 , 기계는 장기적 관찰과 학습을 통해 인간의 선호를 만족시키는 제안을 할 수 있다 . 길게 보면 사람이 명시한 고정목표를 추구하는 표준모델에 비해 한결 예측가능해질 것이다 .”
— 현실에서 인간의 선호와 의도는 다양해 수렴되기 어려운데 , 기계가 다양한 사람들의 서로 다른 선호 ( 욕구 ) 를 충족시킬 수 있나?
“ 인간 전체가 갖는 ‘하나의 선호’ 는 존재할 수 없기에 책에서 이런 선호를 학습하게 하겠다는 제안을 하지 않았다 . 개인마다 , 문화마다 가치체계가 다르다는 게 기계의 문제는 아니다 . 기계가 자기 나름의 올바른 가치체계를 지니기를 바라는 것도 아니다 . 그저 기계가 사람들의 선호를 예측하기 원할 따름이다 . 채식 가정의 로봇이 채식주의자의 성향을 택할 것이라는 것은 잘못된 논리다 . 로봇은 그저 채식주의자가 어떤 식성을 지니는지 잘 예측하는 법을 배우기만 하면 된다 .”
— ‘ 특이점 ’ 으로 불리는 인간 수준의 범용 인공지능 개발이 뇌의 복잡성 때문에 어렵다고 해도 , 인공지능의 지능폭발은 가능하지 않나 ?
“ 어빙 굿이 말한 ‘지능 폭발’ 은 기계가 자신의 소프트웨어와 하드웨어의 발전된 버전을 스스로 설계할 수 있을 정도로 충분히 똑똑해질 때 어떤 일이 일어날지를 지칭한다 . 이 과정은 기계가 스스로의 소프트웨어와 하드웨어를 유의미한 방식으로 발전시킬 능력이 없다면 시작될 수 없다 . 현재 기계는 여러 개의 작고 무작위적인 변화를 만드는 과정을 빠르게 반복해 좀 더 좋은 버전이 나타나는지 보며 인간 설계자를 도울 수 있지만 , 질적인 변화를 탐구할 수는 없다 . 예시로 , 현재의 기계 중 어느 것도 양자 컴퓨팅의 개념을 고전적인 컴퓨터에 대한 가능성 있는 대체재로서 발명해낼 수 없었을 것이고 , 현재의 기계 중 어느 것도 지식과 학습을 결합하는 새로운 접근 방법을 개발할 수 없었을 것이다 .”
스튜어트 러셀과 피터 노빅이 함께 쓴 <인공지능 : 현대적 접근방식>은 전세계 1500여 대학에서 AI 교재로 사용하고 있는, 이 분야의 교과서다.
— 인공지능의 멈춤없는 학습능력과 기하급수적인 연산 능력 상승은 인간 뇌 수준에 도달하지 않아도 범용 인공지능의 개발로 이어질 수 있는데 , 불가능하다고 보는 이유는 무엇인가 ?
“ 기계를 빠르게 만드는 것은 그냥 잘못된 답을 더 빠르게 얻는 방법이다 . 우리가 가진 방법들이 본질적으로 불충분하다면 , 이 부족함을 가리기 위해 거대한 양의 자원과 데이터와 계산을 바치는 것은 끔찍한 접근법이다 . 이런 방법은 자원을 낭비하고 , 연구자를 낭비하고 , 투자자와 정부를 잘못 이끈다 . ‘ 인공 일반 지능 (AGI)’ 는 인간이 잘 수행할 수 있는 임무라면 인공지능 역시 높은 수준에서 수행하는 법을 빠르게 배울 수 있어야 한다는 것을 뜻한다 . 우리가 ‘ 인공 일반 지능 ’ 을 만들기엔 부족한 부분이 많고 새로운 아이디어 없이는 채워질 수 없다 .
— 많은 인공지능 기업들이 ‘ 이로운 인공지능 ’ 협의체를 만들고 인공지능 윤리에 관한 국제협약이 있어도 독재국가나 사악한 집단은 인공지능을 핵무기처럼 파괴적 도구로 사용할 우려가 있는데?
“ 중대한 걱정이고 , 인공지능을 악용하려는 시도는 해결이 어려운 문제다 . 안전성을 담보하는 인공지능 시스템 설계가 나온다면 , 인터넷의 통신규약 (TCP/IP) 처럼 모든 서비스와 시스템에 법적으로 요구될 것으로 본다 . 하지만 안전하지 않은 인공지능을 예방하는 것과 사이버범죄 예방은 차이가 있다 . 첫째 , 사이버범죄는 인터넷의 설계구조상 보안 취약에서 발생한다 . 둘째 , 일부 국가는 사이버 범죄를 보호하고 심지어 권장하기 때문에 성행한다 . 범용 인공지능이 등장하게 되면 , 무제한적 부와 서비스를 제공할 수 있기 때문에 국가간 경쟁의 원천이 사라지겠지만 그 이전까지는 ( 국가간 ) 경쟁이 존재할 것이다 .”
— 국제적으로 핵확산 금지 조약이 있어도 이를 위반하는 시도를 막을 수 없다 . 기술개발 분야에서 국제적 윤리원칙이 실질적으로 작동할 수 있다고 보나?
“ 어렵다는 데 동의하지만 , 필요하다 . 살인이 발생하지만 살인을 반대하는 법이 필요하듯 말이다 . 인간배아 복제시험 금지와 화학무기 금지 등 국제적 합의중에서 성공적인 사례들도 많이 있다 .”.
— 당신은 “사람 닮은 로봇을 만들지 말라”는 앨런 튜링의 경고를 인용하며 휴머노이드 로봇에 반대했지만 , 인간형 로봇과 섹스로봇 개발경쟁은 진행중이다 . 재난 상황을 대비한 다르파 (DARPA) 로봇챌린지에도 휴보와 같은 인간형 로봇이 출전한 바 있는데?
“ 휴머노이드 로봇의 문제는 그 모습 때문에 우리가 인간의 특성을 부여하도록 속인다는 점이다 . 이걸 빼면 휴머노이드의 장점은 없다 . 인간을 흉내내는 로봇을 허용할지는 불가피함이 아니라 우리에게 달린 문제다 . 휴보는 사람으로 착각하게 만드는 휴머노이드라기보다 터미네이터형 로봇이다 .”
— 인공지능 전문가로 당신은 교육제도와 과학탐구를 물질세계보다 인간에 초점을 맞추는 방향으로 근본적 재검토해야 한다고 말하는데 , 구체적 개선법은?
“ 이런 제안을 하는 이유는 미래에는 지적 노동이건 , 물리적 노동이건 반복적 업무는 기계의 일이 되기 때문이다 . 사람들의 가장 큰 경제적 역할은 인간 삶에 대한 이해를 바탕으로 다른 사람들의 삶을 개선시켜주는 직접적인 인간 관계 기반의 직무일 것이기 때문이다 . 과학을 기반으로 현재보다 훨씬 깊은 인간에 대한 이해가 필요하다 . 그렇기에 이러한 과학과 이와 결부된 모든 교육과정과 직업을 발전시켜야 한다 . 오랜 시간이 걸려도 말이다 .”
8월4일(한국시각) 미 캘리포니아에 있는 스튜어트 러셀 교수와 화상 연결을 통해 인터뷰가 진행됐다.
— 인공지능이 일자리를 줄이는 상황에 개인과 사회가 대처하려면?
“ 기계가 더 많은 일을 하게 될 때 , 사람이 가장 잘 할 수 있는 일이 무엇인지 또 사람이 하는 것을 선호할 일이 무엇인지 질문해야 한다 . 이러한 직업 다수는 ‘ 돌봄 ’ 직무다 . 어린이나 노인 돌봄 , 심리상담만이 아니라 , 경영지도사 , 진로 멘토링 전문가 , 인테리어 디자이너 등의 직업들도 모두 고객과 소통하며 개인의 삶을 발전시킨다 . 친구도 마찬가지다 . 인문학과 인간학은 인류의 미래에 핵심적일 것이다 .”
— 자율주행차의 트롤리 딜레마와 같은 인공지능 윤리 논의가 인공지능 산업의 발달을 저해한다는 주장이 있다 . 기술 발전에 따라 자연히 해결될 문제라는 주장인데?
“ 아무도 문제를 인식하지 않거나 얘기하지 않는데 문제가 해결될 것이라는 생각은 내게 이해되지 않는다 . 체르노빌 핵발전소의 문제는 알려져 있었지만 , 설계자들이 언급하는 게 금지되어 있었다 . 그럼에도 문제는 자연스럽게 해결되지 않았고 발전소는 폭발했다 . 연구자들이 문제를 솔직하게 논의하는 게 필수적이다 . 우리가 문제를 의도적으로 숨긴다면 사람들이 어떻게 우리를 신뢰할 수 있겠는가 . 우리는 인공지능의 위험성을 해결하지 못하는 한 인공지능의 혜택을 누릴 수 없다 . 내가 제안한 새로운 인공지능 모델은 인공지능이 우리보다 훨씬 능력이 뛰어날 때에도 인간이 통제권을 잃는 상황을 방지할 수 있다고 믿는다 .”