본문 바로가기
로봇의 양식

생성형 AI는 어떤 미래를 만드는가

by 김비거 2024. 9. 3.

<제리 카플란 생성형 AI는 어떤 미래를 만드는가>

 

생성형 AI(Generative AI)가 우리 사회에 어떤 영향을 미칠지, 그리고 우리가 이에 어떻게 대비해야 할지 궁금해서 이 책을 집어 들었습니다. 제리 카플란은 AI 분야에서 오랫동안 활동해 온 전문가로, 이전 저서인 <인간은 필요 없다>를 통해 인공지능의 미래와 가능성에 대해 많은 이야기를 했습니다. 이 책에서 일반 대중이 생성형 AI에 대해 꼭 알아야 할 정보들을 쉽고 명쾌하게 설명하고 있다고 해서 읽어보기로 했습니다.

 

책은 인공지능의 발전 역사와 그 개념을 설명하는 것에서 시작합니다. 카플란은 AI의 기본적인 정의와 개념을 소개하면서 "인공지능이란 무엇일까? 두 가지 이유에서 묻기는 쉽지만 대답하기는 어려운 질문이다."라는 말로, 인공지능의 복잡성과 논란의 여지를 강조합니다. 그는 AI의 초기 연구에서 다루었던 여러 이론과 기술들을 소개하며, 현재의 생성형 AI가 과거의 어떤 기술적 한계를 어떻게 넘어섰는지 설명합니다. 여기에는 대규모 언어 모델(LLM)과 같은 최신 기술들이 어떻게 발전해왔고, 어떤 방식으로 사용되는지에 대한 내용이 포함되어 있습니다.

 

의료 서비스를 바꿀 수 있는 10가지 AI 애플리케이션

 

책의 중반부에서는 생성형 AI가 다양한 산업과 분야에 미칠 영향을 다룹니다. 카플란은 AI가 의료, 법률, 교육, 예술 등에서 어떻게 혁신을 가져올 수 있는지 여러 사례를 통해 설명합니다. 예를 들어, "생성형 AI는 의료 서비스, 법률, 교육, 예술 등 여러 분야에서 새로운 가능성을 열고 있습니다."라는 설명을 통해, 그는 AI가 어떻게 의료에서 진단과 치료를 더 정확하게 하고, 법률 분야에서 방대한 문서를 분석하고 요약하며, 교육에서는 맞춤형 학습을 가능하게 하는지 보여줍니다. 이 기술들은 이미 현실 세계에서 빠르게 도입되고 있으며, 그 영향력은 계속해서 커질 것이라는 점을 강조합니다.

 

개발자 모드(DAN) ChatGPT 탈옥 시도

 

이어지는 부분에서는 생성형 AI가 가져올 수 있는 위험과 윤리적 문제들을 심도 있게 논의합니다. 카플란은 "우리는 생성형 AI가 가져올 수 있는 모든 부정적인 결과를 예측하는 데 실패해 의도치 않은 온갖 결과를 불러올 수도 있다."라고 경고하며, 알고리즘 편향, 프라이버시 침해, 가짜 뉴스와 같은 문제들을 제기합니다. 그는 특히 AI'탈옥(jailbreaking)''환각(hallucination)' 문제를 설명하면서, 생성형 AI가 어떻게 잘못된 정보를 제공하거나 예상치 못한 결과를 초래할 수 있는지를 강조합니다. 그래서 이를 방지하기 위해 규제와 관리가 필요하다고 주장합니다.

 

마지막으로, 책은 AI가 인간의 철학적 질문에 도전하게 될 가능성을 탐구합니다. "AI는 지구를 물려받을 존재인가?"라는 질문을 던지며, 카플란은 기계가 생각할 수 있는지, 의식이나 자유 의지를 가질 수 있는지에 대한 논쟁을 다룹니다. 그는 이러한 논의가 단순한 기술적 문제를 넘어, 인간 존재의 본질에 대한 근본적인 성찰을 요구한다고 말합니다.

 

책을 읽으면서 생성형 AI가 얼마나 거대한 가능성을 지니고 있는지 다시 한번 깨달았습니다. 카플란은 "이 새로운 기술이 미칠 수 있는 영향은 아무리 강조해도 지나치지 않다."라고 말하며, 생성형 AI가 어떻게 우리의 일상과 산업을 혁신할 수 있을지 구체적으로 설명합니다.

 

보들레르는 사진기로 찍은 사진은 예술과 과학을 보조하는 역할을 해야 한다고 주장하였다. 생성형 AI도 그러하다.

특히 인상 깊었던 점은 AI가 단순히 기존 인간의 작업을 대체하는 것이 아니라, 새로운 방식으로 확장하고 보완할 수 있다는 부분입니다. "글쓰기와 수학은 없어지지 않는다. ... 하지만 사람들이 글 대신 자신에게 편안하고 유용한 방식으로 자신을 표현하게 하는 것은 어떨까"라는 구절에서 카플란은 AI가 인간의 창의력과 생산성을 증진시키는 방향으로 발전할 수 있음을 시사합니다. 이는 기술이 단순히 효율성을 높이는 도구가 아니라, 인간의 본질적인 능력을 더 넓은 방향으로 확장시킬 수 있는 잠재력을 가지고 있다는 것을 깨닫게 해주었습니다.

 

출처: 매일경제

 

책을 통해 얻은 또 다른 중요한 인사이트는, AI가 가져올 윤리적 문제와 잠재적 위험성에 대한 경고입니다. 카플란이 지적한 대로, "모든 단계에서 생성형 AI의 역량에 대한 증거와 인간 전문가의 확실한 감독이 필요할 것"이라는 점은 우리가 기술 발전을 어떻게 관리하고 통제해야 할지에 대해 신중하게 고민하게 만듭니다. AI가 잘못된 결정을 내리거나 오용될 위험을 줄이기 위해서는 감독과 규제가 필요하다는 것입니다.

AI 기술이 가져올 수 있는 긍정적인 변화는 엄청나지만, 그와 동시에 우리가 직면할 수 있는 윤리적, 사회적 문제들도 만만치 않습니다. 이러한 문제들에 대한 신중한 고려와 통제가 없다면, 우리는 기술의 발전이 가져오는 부정적인 영향에 취약해질 것입니다.

 

앞으로 AI의 발전에 대해 더 진지하게 접근할 생각해볼 계기가 된 것 같습니다. 특히 AI의 철학적, 윤리적, 사회적, 심리적 함의들에 대해 심도 있게 탐구하고 싶네요. 이는 단순히 기술적인 이해를 넘어, 이 기술이 인간 삶에 어떤 의미를 가질 수 있는지, 우리의 일상과 대인 관계, 심지어 인간 본성에 어떤 영향을 미칠 수 있는지를 생각해보아야 할 문제입니다.

더불어, AI 기술이 우리 사회에 적용되는 방식에 대해서도 많은 고민을 해봐야겠습니다. AI가 인간의 역할을 어떻게 보완하고 확장할 수 있는지, 동시에 기술이 가져올 수 있는 위험을 최소화하면서 어떻게 현명하게 활용할 수 있는지를 고민하는 것이 중요할 것입니다. 다른 책들도 읽으면서 AI와 관련된 지식을 넓히고, 이에 대한 깊은 이해를 바탕으로 보다 신중하고 지속 가능한 방식으로 이 기술을 사회에 통합시키는 방법에 대해 고민해보아야겠습니다.

 

 

 

 

댓글