유클린 뉴스

20240709회
목록

생성형 AI 잘 활용하려면..."자료 진위확인·정보유출 유의해야"

[2024 U클린] 2-②생성형 AI 활용 체크리스트

황국상 기자  |  2024.07.09 04:10
[2024 U클린] 2-②생성형 AI 활용 체크리스트
image

"생성형 AI(인공지능)는 '좋은 조력자'일 수 있지만 '좋은 전문가'는 아니므로 각별히 주의해서 이용해야 한다."
"생성형 AI로 업무자료를 손쉽고 빠르게 만들 수 있지만 자료의 진위확인과 정보유출에 반드시 유의해야 한다."

지난해 말 방송통신위원회(이하 방통위)와 한국지능정보사회진흥원(NIA)이 공동발간한 '생성형 AI 윤리 가이드북' 내용 중 일부다.

생성형 AI는 △수많은 데이터를 조합해 기존 콘텐츠를 바탕으로 결과물을 생성하는 만큼 기존 저작물을 바탕으로 만든 콘텐츠의 소유권이 누구에게 있는지 저작권이 모호하고 △개인정보나 회사 기밀정보가 포함된 데이터를 AI가 학습해 이를 여과 없이 노출하는 문제가 생길 수 있으며 △온갖 산재한 정보를 학습해 결과물을 제시하기 때문에 허위조작 정보나 차별적 편견 등이 담긴 답변을 내놓을 수 있는 우려가 있다. 딥페이크 기술로 만들어진 영상, 이미지, 음성 등을 범죄에 악용하는 문제도 있다.

빠르게 답변을 생성하는 AI에 대한 경이로움에 도취해 무분별하게 활용하거나 과도하게 AI에 의존할 경우 심각한 사회적 문제가 생길 수 있다는 것이다. 방통위·NIA는 AI 윤리 가이드북을 발간한 이유에 대해 "사실이 아닌데도 정답처럼 보이는 그럴싸한 생성형 AI의 답변은 정보획득에 혼란을 초래한다"며 "생성형 AI를 긍정적으로 활용하기 위해서는 정부·기업·이용자 모두의 노력이 필요하다"고 했다. AI 서비스를 제공하는 기업은 생성형 AI의 이면을 냉철하게 진단해 윤리적이고 책임감 있게 기술을 설계해야 한다. 정부도 모든 국민이 안전하게 AI를 활용할 수 있도록 이용자 보호를 위한 제도보완에 노력을 기울여야 한다. 또 학교·기업 등은 생성형 AI의 위험에 대한 교육을 통해 생성형 AI를 올바르게 잘 활용할 수 있도록 알려야 한다는 것이다.

국내에서도 생성형 AI를 둘러싼 이슈가 불거지고 있다. 지난해 연세대에서는 작문수업에서 챗GPT로 대필했다는 의혹을 받는 학생의 점수를 '0점'으로 처리했다. 중앙대에서는 교수가 학생들에게 '챗GPT로 표절행위를 하지 않겠다'는 서약을 받아야만 했다. 국민대, 성균관대, 고려대, 연세대, 세종대 등 다수 대학에서 이같은 생성형 AI 윤리강령 제정이 잇따른다. 생성형 AI라는 신기술을 전통 교육현장에서 어떻게 받아들일지를 두고 고민이 시작됐음을 보여주는 대목이다. AI가 일반 기업의 채용 및 승진 대상자 선정에서부터 금융사의 신용평가 및 대출심사를 비롯해 교육계에까지 마구 확산하면서 '불완전한 AI'로 인한 문제가 불거지고 있기 때문이다.

'불완전한 AI'로 인한 폐해를 줄이기 위해 유럽연합(EU), 미국 등 주요국이 잇따라 규제를 만들고 있다. 사후적으로나마 AI의 역기능을 막겠다는 것이다. 다만 사후규제는 예방책만큼 효과를 발휘하기 힘들다. 방통위·NIA는 "사전에 역기능을 예방할 수 있는 방법은 이용자의 역기능 대응역량 강화"라며 "이용자가 생성형 AI를 활용하기 전에 윤리적 책임의 중요성과 올바르게 사용해야 할 필요성에 대해 이해한다면 역기능을 최소화하면서 긍정적이고 생산적으로 생성형 AI를 활용할 수 있을 것"이라고 강조했다.