기자명 신예진 (newyejin@skkuw.com)

인터뷰- 국제인공지능&윤리협회 전창배 이사장

챗GPT 윤리 문제, 기술·정책·교육적 해결 필요

AI 윤리는 AI 기술의 안전장치

챗GPT로 AI가 일상 속으로 들어왔음을 체감할 수 있다. 범죄 악용, 저작권, 교육 분야 등 일상 전반에서 AI 윤리가 더욱 중요해지는 시점에서, AI 윤리에 대해 보다 전문적인 접근이 필요하다. 국제인공지능&윤리협회 전창배 이사장을 만나 AI 윤리에 대해 알아봤다.

국제인공지능&윤리협회는 어떤 곳인가. 

국제인공지능&윤리협회는 지난해 인간에게 편익과 행복을 주는 윤리적인 AI를 만들기 위해 설립된 단체다. AI 기술, AI 윤리, AI 교육 세 트랙의 사업을 운영하고 있다. 2019년 한국인공지능윤리협회라는 이름으로 시작했는데, 국제적인 인공지능 기관으로 나아가기 위해 과학기술정보통신부 산하의 사단법인 국제인공지능&윤리협회로 재출범했다. 학계, 정부, 기업 그리고 민간에 해당하는 모든 주체가 올바른 AI 윤리를 활용할 수 있도록 그 중간자 역할로서 논의와 실천을 돕고 있다. 포항공대 AI 대학원 등의 연구 기관뿐만 아니라 국가수리과학연구소, 국가교통연구원 등의 정부 기관, 그리고 다양한 국가의 대사관도 우리의 회원사다.

챗GPT의 윤리적 문제에는 어떤 것이 있나.

챗GPT의 윤리적인 문제 중 가장 우려되는 것은 악용 문제다. AI 모델이 비윤리적인 텍스트의 생성을 최소화하도록 개발돼도 우회하는 방법으로 악용하는 사람들이 있다. 실제로 챗GPT의 빠른 텍스트 생성 능력이 스팸 광고 메일 작성에 이용되거나, 악성 코드 개발에 활용되기도 한다. 아직 두드러지게 나타나는 문제는 아니지만, 경제적·정치적 혼란을 주기 위해 챗GPT로 정교한 가짜뉴스를 만든다면 큰 사회적 혼란이 생길 수 있다.

챗GPT 등의 AI를 윤리적으로 사용하려면.

기술적, 정책적, 교육적 방법이 함께 이뤄져야 한다. 아직 완벽한 기술이 갖춰진 것은 아니나, 챗GPT가 생성한 콘텐츠에 워터마크를 삽입하는 등의 방법으로 AI가 생성한 내용임을 표시하는 기술이 개발돼야 한다. 다음으로는 2016년부터 각국 정부, 학계 등이 발표한 AI 윤리 가이드라인을 모두가 준수해야 한다. 그러나 가이드라인이 잘 지켜지지 않는 경우에는 정책적 해결 방법이 필요하다. AI 윤리 가이드라인 중 최소만을 법으로 규제해, 챗GPT를 범죄 목적으로 악용하거나 인간의 생명이나 정신, 또는 재산에 손해를 끼치는 경우를 처벌하고 예방해야 한다. 마지막으로 챗GPT와 같은 AI의 개발과 사용은 모두 사람에 의해 이뤄지므로, 모든 사람이 AI 윤리 교육을 받도록 하는 것이 가장 근본적인 해결 방안이 될 수 있다.

챗GPT가 생성한 창작물은 저작권을 가질 수 있는가.

우리나라 저작권법에 따르면 저작권의 주체는 인간만이 될 수 있어 AI는 그 주체가 될 수 없는 실정이다. AI가 창작물에 대한 저작권을 가질 수 있도록 법의 제·개정이 필요한 시점이라고 본다. 챗GPT와 같은 AI를 학습시키려면 많은 데이터가 필요한데, 이를 위해서 현재 어떠한 기준 없이 온라인의 텍스트 데이터를 무단으로 사용해 학습시키고 있다. 이에 학습의 대상이 된 창작물의 저작권자들은 저작권을 침해당해 억울함을 느낄 수 있다. AI의 학습에 기존의 데이터가 필요한 경우 저작권자에게 금전적 대가를 주고 저작권을 사는 것이 가장 깔끔한 해결책이라고 볼 수 있다. 그렇게 된다면 AI의 창작활동과 그 상업적 이용이 합당할 것이다.

교육 현장에서 챗GPT의 활용에 대해선 어떻게 생각하나.

학생들의 AI 사용을 장려하면서도 과의존을 경계하도록 해야 한다고 본다. 챗GPT 등 고도화된 AI는 모두 하나의 기술이므로 인간이 도구로써 잘 활용하는 것이 가장 바람직하며, 이는 인간이 한 단계 더 발전하는 계기가 되리라 본다. 예를 들어 챗GPT가 단순 작업을 한다면, 인간은 상상력이나 창의력을 요구하는 더 고차원적인 일에 더 몰입할 수 있다. 교강사가 학생들에게 챗GPT의 효과적인 사용 방법과 활용 수준에 대한 가이드라인을 교육해야 한다.

AI 윤리가 앞으로 어떻게 나아가야 하는가.

AI가 혁신적이라 하더라도 인간보다 더 뛰어난 것은 아니다. AI 판사가 인간의 형량을 선고하는 것과 같이 AI가 인간을 판단하는 일이 생겨서는 안 된다고 본다. 인간이 AI를 통제해서, 오로지 인간의 편익을 위해 AI를 발전시켜야 한다. 기술만 앞서 발전했을 때 생길 수 있는 위험성을 경계하며, AI 기술과 윤리는 항상 조화롭게 가야 한다. ‘AI 윤리는 AI에 반드시 들어가야 하는 안전장치’라는 것을 명심해야 한다. 

 

 

 

전창배 이사장. 
사진 | 신예진 기자 newyejin@