AI Ethics Committee Interview

KRAFTON AI 윤리위원회의 이야기를 소개합니다.

PUBGM Contents Management Team

박민현

1. 소속과 하시는 일에 대해 간단히 설명 부탁드립니다.

안녕하세요. 박민현입니다. 저는 20년 이상 게임 개발과 서비스 관련 일을 했고, 크래프톤의 전신인 블루홀지노(PUBG)로 2017년에 입사했습니다. 게임 콘텐츠 및 프로듀싱 전문가로서, PUBG 기획실장, 유닛장을 거쳐 PUBG Mobile의 슈퍼바이징을 하고 있고, 최근에는 신규 스튜디오 발굴 및 신작 게임 발굴에도 도움을 드리고 있습니다.

2. AI 윤리위원회에 참여하게 된 가장 큰 동기는 무엇인가요?

새로운 것에 대해서 호기심이 많은 편이라서요. 저는 게임 제작을 하면서도 새로운 기술이나 미들웨어 같은 주변 정보를 살펴보는 것을 좋아하거든요. 그러다 보니, 특정 전문 프로그래머가 모르는 부분을 얕고 넓게 알아서 같이 해결해 나간다거나 하는 일이 많았습니다. 또한 AI 자체에 관심이 좀 많습니다. 게임에서도 AI라는 요소가 중요하게 많이 사용되는데요. 지금까지는 주로 효과적으로 즐거움을 주는 상호작용의 일환으로 AI를 세팅하고 작은 몇 가지 편법(?)으로 즐거움을 주는 식의 ‘게임화된 AI’에 대한 고민을 많이 해왔었거든요. 최근에 화두되는 생성형 AI는 이보다는 근원적인 개념들을 다루는 듯하지만, 앞으로 현실적인 적용을 위해서 특화하고 단순화해야 하는 부분이 생길 것입니다. 이러한 동기 때문에 윤리위원회에서 AI 기술의 게임 적용 방법에 대해 함께 논의하면 재미있을 것 같았습니다.

3. 본인의 교육/경험/경력 등이 AI 윤리 문제에 대한 접근 방식에 영향을 미치는 점이 있다면 무엇일까요?

첫 번째는, AI는 특히 게임 제작에 도움을 주는 부분으로도 많이 쓰일 듯한데, 제가 게임 개발을 오래 해와서 이런 분야에 도움을 드릴 수 있을 것 같습니다. 생성형 AI는 플레이어 눈에 보이지 않는 게임 개발의 과정을 새롭게 정의할 것이라고 예상해요. 특히 설계 과정에 영향을 많이 끼칠 것으로 보이는데, 이런 부분은 보통 인간의 의도와 개인의 생각이 들어가는 부분이기에 AI 윤리가 필요한 부분이죠. 두 번째는, 글로벌 서비스를 하다 보면 우리는 서구권의 렌즈에 갇혀 있구나 하는 생각이 들 때가 많아요. 예를 들어 크리스마스는 종교적인 개념이 포함되었기 때문에, 상당히 많은 국가에서 크리스마스를 본 모습 그대로 축제로 여길 수 없거든요. 이런 것처럼 동일한 게임 내 요소라도 플레이어의 문화적 배경에 따라 다르게 받아들이는 경우가 많더라고요. 서로 다른 시각을 가지는 부분에 대해서 조언을 해드릴 수 있겠습니다.

4. AI 윤리의 어떤 영역에 주로 관심을 가지고 계신가요?

신기술은 보통 전문 사용자에서 다수의 사용자로 저변을 넓히는 방향으로 발전해왔고, AI 기술은 인간이 기술을 바라볼 때 이용이란 개념에서 인간을 지원하고 협력하는 파트너의 개념으로 발전한다고 생각하는데요. 이는 기술이 인간의 영역과 대등한 협력 관계로 올라오는 것이라 많은 새로운 충돌이 발생하겠습니다. 그렇기 때문에 AI 윤리는 AI를 제작하는 사람, AI를 사용하는 사람, AI로 혜택을 받는 사람 각각의 영역에서 기존 인간이 가지고 있는 문제 영역이었던 저작권, 차별 이슈, 사용자 권리와 같은 모든 분야를 관통하는 통합적인 시각을 다루게 될 것 같아 관심을 두고 있습니다.

5. 이 위원회의 활동을 통해 달성하고 싶은 개인적인 목표나 기대하는 바는 무엇인가요?

역사적으로 인간의 인식은 시간을 거치며 달라져 왔듯이, AI에 대한 인식과 막연한 두려움 또한 바뀌어 갈텐데요. 이 적용 과정에서 한계에 부딪혀 정체기가 올지, 갑자기 실행 단계에서 색다른 특이점이 발생할지 기대하고 있습니다. 게임 산업의 많은 부분에서 새로운 영역을 만들어내고 기존의 시스템을 무너뜨리는 큰 혁신의 흐름으로 보이구요. 기술의 명암을 지켜보면서 AI의 긍정적 부분을 더 크게 만드는데 필요한 제도에 관심이 있습니다. 이 흐름의 과정을 조금이나마 부드럽게 하는데 동참하고, 도움을 드리면 영광이겠습니다.

6. AI 윤리위원회의 가장 큰 역할과 책임은 무엇이라고 생각하시나요?

다양한 분야의 목소리를 듣고 이를 통해서 실천적인 방안을 만들어 나가면 좋겠구요. AI 기술이 남용되지 않고 인간에게 적시에 필요한 도움을 주는 방향으로 잘 설정해나가야겠죠. 그러면서 한편으로는 전체의 발전을 위해서 생기는 부수적인 피해에 대해서도 연착륙시키는 방안을 고민하여서 기술의 적절한 발전 방향을 제시하는 것도 저희의 의무라고 생각합니다.

BAO Team 2

장주원

1. 소속과 하시는 일에 대해 간단히 설명 부탁드립니다.

안녕하세요. 저는 BAO(Business Assessment Office) 경영진단실에서 일을 하고 있습니다. BAO는 구성원의 목표 달성을 방해하는 위험이 적절히 관리되고 있는지 검토하고 객관적인 의견을 드리는 역할을 하는 조직입니다.

2. AI 윤리위원회에 참여하게 된 가장 큰 동기는 무엇인가요?

평소에 KRAFTON AI 구성원분들과 교류가 있었기도 했고 딥러닝 본부에서 이루어지는 일들이 궁금했습니다. 윤리위원회에 대한 호기심도 있지만 본부 조직에 대한 궁금증도 컸던 것 같아요. 비즈니스적으로는 경영진단실 구성원으로서 회사 리스크 관리, 내부 통제 관점에서도 AI 윤리에 대해 검토해야 한다고 생각했었습니다.

3. 보유하고 계신 전문성을 어떻게 AI 윤리 관련 이슈에 적용하고 싶으신가요?

미국에는 업무 진단/감사를 수행하는 GAO(Government Accountability Office)라는 기관이 있습니다. GAO에서 AI 윤리와 관련해 정의해둔 내용이 있는데, 인공지능 관련 기술을 올바르게 이용하려면 책임성, 감독, 부정적인 영향 방지, 편견 배제 여부, 거버넌스 등등의 관점에서 점검이 필요하다는 것입니다. 이와 관련해서 실질적인 질문을 던지는 것이 저의 역할로 생각하고 있습니다. 제가 AI 윤리 관련해서 기여할 수 있는 부분에 대해 생각해보면, 주로 리스크 관리 쪽일 것 같아요. 휴먼 데이터를 기반으로 하는 AI는 사람들이 해왔던 실수를 반복할 가능성이 크니까요. 버추얼 프렌드 같은 서비스를 예로 들어 보면, 사람들이 우리 서비스에 의지하는 정도를 모니터링하는 척도를 정하거나, 그 정도를 결정하는 것도 논의가 필요한 부분입니다. 사람처럼 친숙한 AI나 인간처럼 행동하는 AI로 인해 발생할 수 있는 문제는 무엇일지 생각하고 검토하는 일도 필요하겠죠. 이런 업무 영역은 사실 Grey Area로 남기 쉬워서, 담당자가 명확히 정해져야 한다고 생각합니다.

4. AI 윤리의 어떤 영역에 주로 관심을 가지고 계신가요?

편향된 데이터를 학습해서 생기는 편견이나, 알고리즘의 투명성 결여 같은 부분에 대해서 관심을 가지고 있습니다. 무형의 서비스가 사람의 생활과 심리적 안녕에 크게 공헌할 수 있다는 점에서 버추얼 프렌드에도 관심이 있고요.

5. 이 위원회의 활동을 통해 달성하고 싶은 개인적인 목표나 기대하는 바는 무엇인가요?

AI 기술의 활용과 윤리적 문제를 예방하고 적절하게 대응하는 전략과 프레임워크를 마련하는 것이 목표입니다. 제약, 바이오 회사들 중에 생명 윤리에 대해 진지하게 고민하는 회사를 더 응원하게 되지 않나요? 게임이 잘 팔리게 할 고민만이 아니라, 윤리적인 문제들, 사회에 미칠 영향을 고민하며 더 나은 기술과 게임을 만들기 위해 노력하고 싶고, 이러한 고민들을 공유하면 더 나은 결과는 물론, 소비자와 대중의 지지를 얻을 수 있을 것이라고 생각합니다.

6. AI 윤리위원회의 가장 큰 역할과 책임은 무엇이라고 생각하시나요?

정답이 정해져 있는 것이 아니므로, 꾸준히 관심을 갖고 짧은 시간이라도 계속해서 토픽을 꺼내고 모두가 함께 고민을 해 보는 것 자체가 중요하다고 생각합니다. 준칙/강령을 통해서 너무 뻔하고 좋은 말만 하기보다는, 실무의 구체적인 사례를 가져와서 이야기해보는 것도 중요할 것 같습니다. TTS(Text-to-Speech) 기술 같은 경우를 예로 든다면, 실제 사람이 말하는 것처럼 들리도록 중복해서 말하거나 망설이는 등의 자연스러운 실수를 구현할지 고민해 보거나, 이를 통해 전달되는 언어 습관들이 말을 배우고 있는 어린이들에게는 어떤 영향을 미칠지 고민해 볼 수 있겠죠. 이런 식으로 꾸준히 문제의식을 일깨우고 고민해 보는 자리를 만드는 것 자체가 중요하다고 생각합니다.

Core Research Team

박종호

1. 소속과 하시는 일에 대해 간단히 설명 부탁드립니다.

안녕하세요, 딥러닝 본부 Core Research Team의 박종호입니다. 현재 본부에서 하는 일은 크게 2가지입니다. 하나는 언어모델의 뼈대인 트랜스포머라는 모델이 왜 언어를 잘 배울 수 있는가 혹은 어떻게 개선이 가능할까에 대해서 연구하고 있습니다. 두 번째로는 챗봇 관련 일을 하고 있는데 이 쪽은 프로젝트마다 성격이 조금씩 다르지만 현재는 인조이에 재미를 더하기 위해 NPC 챗봇의 구현을 고민하고 있습니다

2. AI 윤리위원회에 참여하게 된 가장 큰 동기는 무엇인가요?

제가 하는 업무가 인공지능 연구이다 보니 기술 윤리를 생각하지 않을 수 없었습니다. 또 학부생 때부터 철학/윤리 쪽에 관심이 많았고, 워낙 빠르게 발전하는 기술이라 기술을 붙잡아 줄 수 있는 근본적인 토대가 있으면 좋겠다는 생각이 들어서 AI 윤리를 공부하게 됐습니다. 대학원 이후로는 딥러닝본부 실무자 입장으로서 AI의 현 상황과 윤리적 이슈에 대한 정보를 적절히 공급하고, 실무자로서 본부 밖의 의견에 귀를 기울이기 위해서 AI 윤리위원회에 참여하게 되었습니다

3. 보유하고 계신 전문성을 어떻게 AI 윤리 관련 이슈에 적용하고 싶으신가요?

AI 모델을 개발하고 있으니 여러 가지 측면에서 생각해 볼 수 있었는데요. 일단 언어 모델을 주제로 생각해 보면, 차별성을 보이는 데이터는 전처리를 할 수 있을 것이고, 모델 학습의 퀄리티가 좋지 않은 데이터는 무시하는 쪽으로 학습하게끔 조정할 수도 있을 겁니다. 학습된 언어 모델을 사용할 때는 더 적확한 결과를 위해 프롬프트 등의 기술을 통해 조정해 볼 수도 있고요. 그래서 AI 윤리 위원회에서 지적되는 이슈들에 대해 관련된 최신 연구를 들여다보고 구현 가능한 것들은 빠르게 시도해 보는 등 보다 효과적인 논의와 결과 도출에 기여할 수 있을 것이라고 생각합니다.

4. 현재 AI 기술과 관련하여 가장 큰 윤리적 우려는 무엇이라고 생각하시나요?

주변에서 AI 관련 주제로 대화를 하다보면 대중에게 널리 알려진 AI에 대한 정보들은 굉장히 편향되어 있다고 느낍니다. 편향성도 가지각색인데 허위 정보인 경우도 많고 노이즈 마케팅식의 부풀리기 정보도 많고요. 오히려 반대로 AI를 너무 과소평가해서 대비가 필요 없다는 식의 이야기도 간혹 들려옵니다. 그래서 AI 기술의 문제점을 논할 때는 이러한 잘못된 인식이 어떤 문제를 야기할지도 고민해 보아야 한다고 생각합니다.

5. 이 위원회의 활동을 통해 달성하고 싶은 개인적인 목표나 기대하는 바는 무엇인가요?

AI 윤리위원회를 통해서 크래프톤이 나아가고자 하는 방향과 AI 기술이 잘 어우러질 수 있고 크래프톤 구성원들도 함께 공감할 수 있는 윤리 도구들이 만들어졌으면 좋겠습니다. 또한, 딥러닝 본부는 위원회의 활동들을 통해서 AI 실무자들이 실무 바깥의 관점 (게임 개발자, 게임 유저, AI 사용자 입장)에서 모델과 프로덕트를 바라볼 수 있는 습관을 들일 수 있으면 좋겠네요. 조금 욕심을 내자면 윤리가 AI의 발전을 저해할 수 있다는 편견을 해소하고, AI와 윤리가 함께 갈 수 있다는 비전을 제시할 수 있다면 이상적일 것 같아요.

6. AI 윤리위원회의 가장 큰 역할과 책임은 무엇이라고 생각하시나요?

위 대답에서 말씀드린 것과 결이 비슷합니다. AI 윤리위원회에서는 책임감 있고 사람 혹은 게임 유저 중심의 AI 기술 발전을 도모해야 한다고 생각합니다. 그리고 크래프톤은 게임회사이기에 AI윤리와 게임 산업 간의 관계를 주체적으로 잘 확립해야 할 것 같습니다. 기업으로서 이익도 중요하지만 게임 소비자와 AI 사용자에 대한 고려가 우선시 되어야 하기에, 그 목소리들이 실무자들에게 잘 들릴 수 있도록 가교를 마련하는 것도 의무 중 하나라고 생각하고요. AI 윤리위원회가 그 가교 역할을 해 주리라 기대합니다.