지용구 (주)더존비즈온 솔루션사업부문 대표
지용구 (주)더존비즈온 솔루션사업부문 대표

[K글로벌타임스] 생성형 인공지능(AI)을 둘러싼 기대와 우려의 시선이 교차한다. 챗GPT가 처음 등장할 당시의 충격과 놀라움은 이제 그 역할과 한계에 대한 우려와 당혹감으로 조금씩 바뀌어가는 모양새다.

스탠포드대 인간중심인공지능연구소(HAI)는 최근 보고서에서 생성형 AI 모델이 생산성과 경제 혁신 속도를 높일 것으로 평가하면서도 그 이면에는 세상에 산재하는 편견을 증폭시키거나, 정보에 대한 신뢰를 떨어뜨릴 수 있다는 점을 부작용으로 꼽기도 했다.

 

생성형 AI의 긍정적 활용법은 좋은 질문 던지는 것

부작용과 관련해서는 챗GPT의 답변이 갖는 디테일의 한계와 관련이 있다. 사용자에 의해 잘 학습된 AI는 이로운 혜택을 제공하지만, 잘못된 프롬프트(질문)에 의해 오염된 AI는 편향적이거나 거짓된 정보를 생산할 수밖에 없다. 거대언어모델(LLM)이 가진 할루시네이션(Hallucination, 환각) 문제가 대표적이다.

마치 환각에 빠진 것처럼 사실과 다른 이야기를 지어내는 생성형 AI의 환각 현상은 골치 아픈 결함으로 지적되고 있다. AI표절, 가짜 정보 생성은 물론 이를 활용한 피싱, 파밍 공격 등은 이미 전 세계적인 문제로 인식되고 있다. 생성형 AI의 답변을 오롯이 신뢰하는 것을 경계해야 하는 이유다.

또한, AI 출력물이 갖는 지식의 깊이도 부작용의 한 원인으로 지적된다. 생각하는 힘을 통해 만들어진 지식이 아닌 데이터셋을 조합해 만든 경험이 없는 지식이기 때문이다. 앞으로도 챗GPT를 비롯한 생성형 AI의 지능은 자연어처리(NLP) 기술 발전과 함께 날로 고도화할 것이다.

하지만 이러한 생성형 AI를 활용하는 것만으로 항상 최상의 결과물을 얻을 수 있는 것은 아니다. 생성형 AI의 동작은 블랙박스 방식으로 수행되기 때문에 어떤 과정을 통해 결과물이 생성됐는지 반드시 확인이 필요하다. AI 시대, 더 좋은 질문을 던지기 위해서는 깊게 파고드는 전략이 요구되는 까닭이다.

 

AI와 인간의 협업이 강화돼야 한다

생성형 AI가 갖는 이면의 부작용을 제거하기 위해 파인튜닝(Fine-Tuning, 미세 조정)이 필수불가결한 까닭이기도 하다. 파인튜닝이란 기존 AI 모델의 성능을 의도에 맞게 튜닝하는 것을 말한다. 인간의 지적 능력을 활용해 더 정확하고 적절한 데이터셋을 활용해 모델을 재학습시키는 과정이다.

파인튜닝은 등산에 비유해 보면 이해가 쉽다. 예컨대 처음 오르는 산에 대한 정보를 알고 싶을 때 그 산을 100번 넘게 오르며 등산 코스, 주의사항 등 각종 정보를 꿰고 있는 사람과 해당 산을 몇 번 오르지 않은 사람 중 누구에게서 정보를 얻는가의 차이가 바로 파인튜닝 여부에 따른 출력물의 차이인 것이다.

AI의 장점 강화, 단점 보완을 위한 일련의 파인튜닝 과정에서 인간의 상당한 시간과 노력, 리소스가 투입되는 것은 매우 중요한 요소다. AI 기술이 발전할수록 AI와 인간의 협업이 강화되면서 이제 모든 AI 활용 영역에서 인간의 개입은 보다 광범위하며, 다양한 방식을 통해 필요해질 것이다.

 

충분한 경험과 이해 없이 생성됨을 이해해야

컴퓨터 시스템과 데이터 처리에 관한 격언 중에 'Garbage in, garbage out'이라는 말은 고도로 학습된 초거대 인공지능의 등장 이전의 말이 되었다. 챗GPT는 ‘쓰레기’ 입력에서도 그럴듯해 보이는 결과를 생성할 수 있는 능력을 가지고 있기 때문이다. ‘가짜는 진짜의 반대말이 아닌 진짜와 매우 유사하다’는 해석이 가능해 보인다.

이 말은 챗GPT와 같은 고도로 학습된 거대 인공지능에 대비해 사용하는 것은 한계와 주의가 필요하다는 의미다. 그들이 학습한 데이터셋 정보는 이해가 없이 단순한 패턴의 조합으로 그럴듯한 결과를 만들어 내기 때문이다.

생성형 인공지능을 정의하는 ‘생성’이란 단어에는 ‘충분한 경험과 이해 없이 생성됨’이란 뜻을 내포하고 있다. 즉, 사람과 달리 경험을 통해 학습하거나 그 경험에 의해 성장하는 능력이 없다. 모든 정보가 학습 데이터로부터 추출돼 그 이외의 정보나 경험을 가질 수 없다는 얘기다. 이러한 인공지능은 부정확하거나 편향된 정보를 퍼뜨릴 위험성이 있어 의사결정 과정에 주의가 필요하다. 이는 우리가 새로운 기술을 이해하고, 기술을 효과적으로 활용하는 데 중요한 첫걸음이기도 하다.

 

DX 시대, 기계는 과정을 대신할 뿐이다

지난 수개월 챗GPT를 활용해 보며 얻을 수 있었던 가장 큰 시사점도 이 부분이다. AI 기술과 인간의 공존에서 지속가능한 성장의 목표를 찾기 위해서는 인간의 경험적 지식이 갖는 무게감을 인식하는 것이 필수라는 것이다.

생성형 AI가 내는 출력물의 질을 결정하는 것은 인간의 경험적 지식수준이기에 답을 찾는 인공지능에 앞서, 바르게 질문하는 인간의 존재감이 더 커야 한다. 인간이 가진 기초와 기본기가 더 중요하다는 사실은 더 명확해졌다. 기계가 대체할 수 없는 영역, 전인교육이 답이라는 의미다.

디지털 전환(DX)의 시대, 생성형 AI 활용 능력이 리더의 필수적 자질로 요구되는 날이 머지않았다. 더욱이 오늘날의 변화무쌍한 비즈니스 세계에서 생성형 AI와 시너지를 내는 리더가 되려면 경험적 지식을 활용해야 한다.

기술의 발전이 가속화하며 생성형 AI와 같은 도구는 매일 더 강력한 내일을 예고하고 있는 만큼 우리는 삶 전반에 스며든 AI의 이점을 받아들일 자세를 갖춰야 한다. 생성형 AI의 활용을 통해 가장 큰 승자가 되기 위해서는 지시도, 수정도, 멈춤도 인간이 주도권을 갖고 처음부터 끝까지 토론과 대화와 담론을 리드해야 한다. 결국 기계는 과정을 대신할 뿐 완성은 인간의 몫이다.

[K글로벌타임스] [email protected]

관련기사

저작권자 © K글로벌타임스 무단전재 및 재배포 금지