본문 바로가기
  • 블랜더 거실
독서습관

AI 이후의 세계_인공지능의 현주소와 미래에 대한 인간의 준비 필요 by YW

by bandiburi 2024. 3. 25.

(출처: 정약용도서관 홈페이지)

AI 시대에 인간에게 있어 가장 중요한 건 ‘주체성’이라고 생각한다. AI는 단조로운 일은 물론, 고강도 지적 능력이 요구되는 분야까지 척척 해낸다. 또한 정보의 홍수 속에서 현재로선 인간이 해석할 수 없는 원리를 이용해 정보를 요약해 준다. 즉, 모든 게 자동화되고 정제되는 사회 속에서 인간은 무엇을 할 수 있을까? 

인간의 손아귀에서 벗어난 AI가 인간을 역으로 통제할 지도 모른다는 두려움 속에서 우리는 더욱 주체적으로 움직여야 한다. 하지만 디지털 사회가 이미 보여줬듯이 AI 알고리즘이 추천하는 맞춤 영상에 중독 돼 하루종일 휴대폰을 손에서 놓지 못하는 현대 사람들은 더 강력해진 AI 앞에선 속수무책일 것이라는 생각이 든다. 

편리해진 이동수단으로 비만이 되지 않기 위해 매일 아침 조깅을 나가는 사람처럼, 더 이상 인간의 지적 능력이 요구되지 않는다면 우리는 직접 사유하고 질문하는 연습을 해야 할 것이다. 또한 AI가 인간의 노동력을 완전히 대체하는 순간은 멀지 않았다고 생각한다. 생존을 위한 노동이 사라진다면 자아실현을 위한 노동의 시대가 열리길 바랄 뿐이다.

그 밖에 여러 질문들은 던져본다. 세계 각국이 AI를 강력히 규제한다면 AI 기술의 발전 속도는 얼마나 더디어질까? 오히려 음지에서 발전하는 AI를 규제하기 더 어려워지지 않을까? AI는 감정을 느낄 수 없다는데, AI 스스로가 감정을 느낀다고 여기는 날이 올 것인가?

저자는 “AI는 자신의 발견을 반추하지 못한다. AI는 반추하지 못하므로 그 행동의 의의를 결정하는 것은 인간의 몫이다. 따라서 인간이 AI를 규제하고 관리해야 한다.”라고 주장한다. 저자의 의견을 AI는 결코 감정을 느낄 수 없다는 의미로 해석해도 될까? 그리고 AI가 결코 감정을 느끼는 날이 오지 않을 것인가?

AI의 미래에 대한 질문은 끝도 없고 답하기도 어렵다. 미래를 예측해 대비하기 어려우니, 지금 내가 할 수 있는 일을 해야겠다. 즉, 저자가 거듭 강조했듯이 철학과 소신이 필요한 시대에 맞추어 책과 직접 경험을 통해 현실의 다양한 면을 배우고, AI 앞에서 무너지지 않을 나만의 세계를 구축해야겠다.

책의 내용을 요약하면 다음과 같다.


세계가 ChatGPT로 들썩인다. 생성형 AI라는 생소한 기술이 본격적으로 공개되면서 몇 년간 잠잠했던 AI에 관한 소식이 속속이 들려오기 시작했다.

ChatGPT는 텍스트를 생성하는 데 사용되는 거대언어모델의 일종이다. 인간의 피드백을 토대로 더 자연스러운 대화문을 생성한다는 특징이 있다. 조사 결과, 많은 사람들이 ChatGPT를 통해 일의 효율을 높였다고 한다. 반면 학교 과제에 ChatGPT를 이용하면서 아이들의 학습과 관련된 사회문제가 대두되기도 했다.

728x90

ChatGPT에 있어 가장 충격적인 사실은 방대한 지식과 더불어 단 몇 초만에 문단이 완성되는 빠른 속도다. 요약 능력도 대단하다. 다만 전혀 사실에 근거하지 않은 문장을 생성하는 ‘환각’이나 ‘확률론적 앵무새’ 현상 때문에 아직은 연구가 더 필요한 상황이다.

그 밖에 이미지 생성 기술도 발달했다. 프로 예술가도 극찬할 실력을 뽐내는 AI의 이미지 생성형 기술은 모두에게 감탄과 혼란을 자아냈다. 일관된 형태를 갖춘 영상 생성 기술도 나날이 발전하는 중이다. 이처럼 AI는 끊임없이 발전하고 있다. 스스로 배우고 생각하는 AI에 대해 향후 10년 안에 인간 모두의 지능을 합친 것보다 뛰어난 지능을 지니는 ‘특이점’이 올 가능성이 높다고 한다. 이미 AI는 알게 모르게 사회 전반에 적용되었고, 앞으로 그 범위는 더욱 넓고 깊어질 것이다.

인류는 아리스토텔레스가 살았던 고대 시대, 이성보다 신이 우선시됐던 중세 시대를 거쳐 계몽주의시대에 이르러 인간 이성의 시대를 열었다. 인쇄 기술이 발달하면서 독서를 통해 많은 사람들이 지식을 보다 쉽게 습득하고 자신을 둘러싼 현실 세계에 적극적으로 의문을 표하기 시작했다. 

 

또한 그리스 과학과 철학이 재조명되면서 원리를 관측하고 체계적으로 정리하는 방법이 탐구의 대상이 됐다. 역사적으로 봤을 때 인간은 단기간에 폭발적인 기술로 많은 혁신을 이룩했다. 

그러나 불과 10여년 전에 시작된 디지털화는 인간과 그 조직에 중차대한 영향을 미치기 시작했다. 디지털 혁명으로 엄청난 분량의 정보가 엄청난 속도로 쏟아져 나오기 시작했다. 궁금한 것이 있으면 바로 검색엔진에 검색하면 문제는 간단히 해결됐다. 이제는 박학다식한 AI에게 물어보면 된다. 

검색하여 일일이 원하는 정보를 추려내는 것보다 간소한 과정이다. 다만 그로 인해 인간은 깊이 사유할 능력을 잃게 될 수 있다. AI가 정확한 정보를 제공하는지, 편견에 물든 정보는 아닌지 확인해야 한다. 인간만이 가질 수 있다고 생각했던 지적능력은 이제 AI가 더 뛰어날지도 모른다. 인간은 앞으로 AI에 대처하기 위해 어떤 자세를 갖추어야 할까?

“정보에 맥락이 더해질 때 지식이 된다. 그리고 지식에 소신이 더해지면 지혜가 된다. 역사적으로 볼 때 소신이 생기려면 홀로 성찰하는 시간이 필요했다. 하지만 인터넷은 이용자에게 수천, 수만, 수억 명의 의견을 쏟아부으며 혼자 있을 시간을 허락하지 않는다. 홀로 생각할 시간이 줄어들면 용기가 위축된다. 용기는 소신을 기르고 지키기 위해 꼭 필요하며 특히 새로운 길, 그래서 대체로 외로운 길을 걸을 때 중요하다. 인간은 소신과 지혜를 갖출 때만 새로운 지평을 탐색할 수 있다.”

 

초기 AI는 인간이 자식에게 먹이를 직접 먹이듯이 인간의 전문성을 컴퓨터 시스템에 입력하는 형식으로 이뤄졌다. 체스, 대수학, 비즈니스 프로세스 자동화 등 특성을 정밀하게 규정할 수 있는 분야에서는 AI가 큰 진전을 이뤘지만, 언어 번역과 시각적 사물 인식 같은 분야에는 필연적으로 따르는 모호성 때문에 발전이 정체됐다.

이 때문에 1950년대부터 연구됐지만 1990년대에 들어서야 돌파구가 마련됐다. 기존과 달리 기계가 스스로 학습하는 방식을 새로 도입했기 때문이다. 기계가 스스로 학습하는 ‘머신러닝’은 세계를 기계론적 규칙으로 단순하게 표현하려던 관점에서 벗어나, 현실에 근접한 모델을 만드는 쪽으로 돌아섰다. 즉, 어떤 대상의 이상적인 형태를 아는 것 이상으로 그 대상의 다양한 표현법에서 중복되는 부분을 찾는 것이 중요했다(본질을 식별하는 것이 아니라 유사성의 일반화 방식을 따름).

최신 AI는 인간의 뇌에서 영감을 얻는다. 인간 뇌에서 뉴런을 시냅스와 연결해서 정보를 부호화하는 것과 유사하게 인공신경망은 노드와 가중치의 관계를 부호화 하는 방식이다. 인공신경망의 정확도는 훈련 데이터의 양과 질에 따라 달라진다. 덕분에 AI는 인간이 포착하지 못하는 관계까지 포착할 수 있다(예: 할리신 발견).

대부분의 AI는 인간과 달리 훈련과 실행을 동시에 수행하지 못한다. ‘훈련’ 단계에서는 AI의 품질 측정을 하고 개선 알고리즘이 모델을 평가한다. ‘추론’ 단계에서는 AI에게 새롭게 훈련된 모델을 이용해 연구진이 지시한 일을 수행한다.

AI는 작업 내용에 따라 학습 방식이 달라진다.

  • 지도학습: 이미지를 인식하는 AI가 대표적이다. AI는 이미 레이블이 붙은 이미지들로 훈련하면서 각 사진을 올바른 레이블과 연관 짓는 법을 학습한다. 따라서 지도학습은 각각의 입력에 바람직한 출력이 지정된 데이터세트가 확보된 상황에서 새로운 입력에 관한 출력을 예측하는 모델을 만들 때 특히 유용하다.
  • 비지도학습: AI가 출력에 관한 정보 없이도 패턴이나 예외를 식별하게 할 수 있다. 훈련 시 데이터는 입력만 포함된다. 유사성의 정도를 나타내는 가중치를 토대로 그룹을 만드는 방법을 통해 넷플릭스 같은 영상 스트리밍 서비스는 시청 습관이 비슷한 고객들을 그룹화하여 영상을 추천한다. 비지도학습에서 AI는 올바른 출력을 제공받지 못한 채로 훈련하기 때문에, 인간이 독학하듯이, 혁신적인 분석결과를 도출할 수도, 때로는 황당한 결과를 내놓을 수도 있다.
  • 강화학습: 현실적인 시뮬레이션에서 AI의 행동이 얼마나 성공적이었는지 피드백을 해주는 보상함수를 이용한다. 이때 보상함수는 정밀하게 설정 후 자동화한다. AI는 보상함수를 토대로 스스로 훈련한다.

현재로선 AI가 어떤 원리로 결과물을 도출해내는지 정확한 과정을 알아내기 힘들다. AI가 보는 현실과 인간이 보는 현실이 다를 수도 있기 때문이다. 개인들은 현상을 일련의 행동과 원리로 설명하는 능력에 큰 의의를 둔다. 설명이 가능할 때 의미와 목적이 생기고, 대중이 도덕원리를 인정하고 실천할 때 정의가 구현된다. 하지만 AI는 제 결론을 인간의 경험에 근거하여 대중에게 설명하지 않는다.

현재 전세계 강대국들은 글로벌 네트워크 플랫폼에 크게 주목하고 있다. 틱톡, 페이스북 같은 네트워크 플랫폼은 AI를 이용한 이용자 데이터 수집 행위, 검열 가능성, 허위정보 유포 수단의 위험성을 수반하기 때문이다.

AI는 기존 재래식, 핵무기와 다른 양상을 띤다. 오직 AI를 이용한 사이버 무기만이 쉬운 확산(기술적 특수성), 군민 양용성, 강력한 잠재력(효과의 규모)을 모두 갖추었기 때문이다. 핵무기의 강한 파괴력에 대한 두려움은 핵무기에 대한 규제(억지)로 이어졌다(핵보유국은 핵무기를 실제로 사용하기 어려움). 그러나 AI는 앞의 세가지 특성으로 인한 예측 불가능성에 의해 규제하기 더 복잡해진다(예: 공격자를 식별하기 어려움)

728x90
반응형

댓글