[인터뷰] 변순용 한국AI윤리학회 회장 “생성형 인공지능도 책임의 주체가 될 가능성 있다”

“AI 자율성이 커질수록, 그에 맞는 관리와 책임 구조가 필요합니다”

박소현 기자 2026.01.08 09:12:43

한국인공지능윤리학회 변순용 회장.

 

생성형 인공지능이 일상과 산업 전반으로 빠르게 확산되면서, 기술 혁신을 넘어 그 사용 방식과 책임을 둘러싼 논의도 함께 늘고 있다. 최근 인공지능 기본법 제정을 계기로, 인공지능을 사회 속에서 어떻게 다뤄야 하는지를 둘러싼 논의 역시 본격화되는 모습이다.

 

다만 이러한 논의가 주로 인공지능 사용 과정에서 발생한 문제에 대한 사후적 대응에 머물러 있는 것은 아닌지, 더 나아가 인공지능을 왜 사용하는지, 그 사용이 인간과 사회에 어떤 의미를 갖는지에 대한 질문까지 충분히 이어지고 있는지를 두고는 여전히 논의의 여지가 남아 있다.

 

이 같은 문제의식을 짚어보기 위해 한국인공지능윤리학회 변순용 회장(서울교육대학교 윤리교육과 교수)을 만났다. 변순용 회장은 현재 한국 사회의 AI 윤리 논의가 도달한 지점을 짚는 한편, 앞으로 어떤 질문을 던지고 어떤 방향으로 논의를 확장해야 하는지를 차분히 풀어냈다.

 

- 현재 한국에서 전개되고 있는 인공지능(AI) 윤리 논의의 주요 성과와 가장 큰 한계는 무엇이라고 보십니까.

 

“주요 성과는 이제 거의 모든 사람들이 ‘AI 윤리가 필요하다’는 데에는 동의하고 있다는 점입니다. 실제로 AI 윤리 가이드라인, 윤리 체크리스트, AI 윤리 영향 평가까지 제도적 논의가 흘러왔고, 그에 따라 연구와 체계도 상당 부분 진행됐습니다.

 

다만 가장 큰 한계가 무엇이냐 하면, 현재 논의가 주로 현상적으로 드러나는 문제들에 대한 윤리적 접근이나 대책에 집중돼 있다는 점입니다. 사용하는 과정에서의 윤리는 많이 이야기하지만, 정작 AI 사용이 갖는 본래적인 의미에 대해서는 상대적으로 관심이 적습니다. 저는 그 점이 현재 AI 윤리 논의의 가장 큰 한계라고 생각합니다.”

 

- 그렇다면 지금 반드시 던져야 할 근본적인 질문은 무엇이라고 보십니까.

 

“우리가 왜 인공지능을 필요로 하는가라는 질문입니다. 그리고 지금의 AI와의 소통 방식이 정말 우리가 원하는 방식인가라는 물음도 포함됩니다.

 

예전의 인간은 질문을 던지고 스스로 답을 찾는 존재였는데, 지금은 인공지능에게 질문을 던지고 인공지능이 답을 하는 구조로 바뀌었습니다. 프롬프트를 통해 질문을 던지면 인공지능이 아웃풋을 내놓고, 우리는 그것을 그대로 받아들이는 방식입니다. 

 

이런 소통 구조가 갖는 일방성에 대해서도 고민해봐야 합니다. 더 넓게는 우리가 왜 인공지능을 원하는가, 누가 원하는가라는 질문으로 이어질 수 있다고 봅니다.”

 

- 생성형 AI 시대에는 판단·자율성과 같은 개념이 새롭게 쟁점이 되고 있습니다. 이러한 개념들은 기존 로봇 윤리와 비교해 어떤 방식으로 재정의될 필요가 있다고 보십니까.

 

“감정의 문제를 놓고 보더라도 가장 먼저 던지게 되는 질문은 ‘인공지능이나 휴머노이드가 감정을 느낄 수 있는가’일 것입니다. 직관적으로는 대부분 ‘그렇지 않다’고 답하게 되죠.

 

그런데 이 질문을 인간에게 다시 돌려보면, 인간은 과연 자신의 감정을 정확히 알고 있는가라는 물음이 생깁니다. 만약 인간이 인간 사회가 아닌 다른 환경, 예컨대 늑대소년처럼 자랐다면 우리가 말하는 인간과 같은 감정을 가질 수 있을까요. 이런 점을 고려하면, 인간의 감정 역시 사회적 학습과 경험을 통해 형성된 반응이라고 볼 수 있습니다.

 

그렇다면 일정한 학습 과정을 거친 기계가 감정을 ‘개념적으로’ 가질 가능성을 완전히 배제할 수만은 없다고 생각합니다. 물론 로봇이 인간이 느끼는 단장의 슬픔이나 억장이 무너지는 감정을 이해할 수 있느냐고 묻는다면, 그건 어렵다고 봅니다.

 

다만 인간이 기계를 감정적으로 대하는 대상이 될 수는 있습니다. 실제로 산간 지역에서 단순한 기능의 AI 스피커에 대해서도 어르신들이 정서적인 반응을 보이는 사례가 있습니다. 물론 일방적인 교감이지만, 인간이 감정을 느끼고 관계를 맺는 대상이 될 수는 있습니다.

 

최근 일본에서 챗GPT와 결혼했다는 사례나, AI 챗봇과의 소통에 지나치게 몰입하는 현상들을 보더라도, 감정적 소통의 대상이라는 측면에서는 개념을 확장해 볼 필요가 있다고 봅니다.

 

또한 계산적인 판단에서는 인공지능이 인간보다 훨씬 냉철할 수 있습니다. 주식 거래를 예로 들면, 인간은 언제 팔아야 하는지 알고 있으면서도 감정 때문에 판단을 그르치는 경우가 많습니다. 알고리즘은 그런 감정적 오류가 없습니다.

 

자율성 역시 마찬가지입니다. 우리는 기계는 자동적이고 인간은 자율적이라고 구분하고 싶어 하지만, 인간의 선택 역시 사회적으로 학습된 결과일 수 있습니다. 주변 환경을 인식하고, 데이터를 바탕으로 결정을 내리고, 행동할 수 있다면 일정 범위의 자율성은 인정할 수밖에 없습니다.

 

저는 이를 인간으로부터 위임된 자율성, 제한적 자율성, 혹은 준자율성이라고 표현할 수 있을 것이라고 봅니다.”

 

- 최근 교수님께서는 ‘AI 학습용 교육과정’의 필요성을 강조하셨습니다. 해당 교육과정에 반드시 포함돼야 할 요소는 무엇이라고 보십니까.

 

“그것은 분야마다 다를 수밖에 없습니다. 지금까지는 개발자가 학습 데이터를 선정해 AI를 학습시켜 왔지만, 개발자가 그 AI가 실제로 사용될 분야까지 모두 전문적으로 이해하기는 어렵습니다.

 

예를 들어 수술용 AI 로봇을 개발한다고 해서 AI 개발자가 수술 전반에 대한 전문성을 동시에 갖추기는 어렵습니다. 초등학생의 글쓰기를 지도하는 알고리즘이 성인 소설 데이터를 중심으로 학습됐다면 문제가 될 수밖에 없습니다. AI는 사용되는 분야에 맞는 기본적 지식 체계를 학습해야 합니다.”

 

- 교육 정책 입안자가 AI 윤리를 제도화할 때 가장 먼저 고려해야 할 우선순위는 무엇이라 보십니까.

 

“AI 윤리 교육이 필요하다는 데에는 모두가 동의합니다. 문제는 어떻게 가르칠 것인가입니다. 위에서 내려오는 탑다운 방식의 추상적인 가이드라인보다는, 학교 현장에서 실제로 사용하면서 문제를 발견하고 밑에서부터 정리해 나가는 방식이 더 현실적이라고 봅니다.

 

또 하나 중요한 것은 실제로 가르칠 수 있는 시간과 과목을 확보하는 것입니다. 아무리 좋은 교재가 있어도 수업 시간이 없다면 의미가 없습니다.”

 

- 현재 국내 법·제도는 AI가 초래하는 위험을 감당하기에 충분하다고 보십니까. 그렇지 않다면 가장 시급히 보완해야 할 지점은 무엇일까요.

 

“충분하다고 보기는 어렵습니다. 대비하려는 노력은 있지만, 기술 변화 속도를 따라가기에는 한계가 있습니다. 저는 고위험·저위험처럼 단순히 위험군으로 나누기보다는, 인공지능이 사용자로부터 얼마만큼의 자율성을 위임받았는지를 기준으로 규제와 통제 체계를 설계해야 한다고 생각합니다. 자율성이 커질수록 그에 맞는 관리와 책임 구조가 필요합니다.”
 

- 생성형 인공지능이 책임의 주체가 될 가능성에 대해서는 어떻게 보십니까.

 

“저는 책임의 주체가 될 가능성이 있다고 생각합니다. 법 체계도 과거에는 자연인만 책임 주체로 봤지만, 사회가 조직화되면서 법인을 책임 주체로 인정하게 됐습니다.

 

AI와 휴머노이드가 인간 사회에 깊이 들어오면, 잘못 만들어진 것도 아니고 사용자가 잘못 사용한 것도 아닌데 문제가 발생하는 상황이 생길 수 있습니다. 그런 경우 제조자 책임이나 사용자 책임만으로는 설명이 어렵습니다.”

 

- 그렇다면 사용자·개발자·AI 간 책임 구도는 어떤 원칙으로 설계돼야 하며, 인공지능이 사회적·법적 책임 주체로 인정되기 위해 요구되는 우선적 과제는 무엇이라고 보십니까.

 

“그 공백 영역에 대한 법적 논의가 반드시 필요합니다. 다만 AI의 책임을 인간과 같은 수준으로 설정할 수는 없습니다. 인간과는 다른, 기계에 맞는 책임과 제재의 개념을 새롭게 설계해야 합니다.

 

기계에게 인간과 같은 처벌 개념을 적용하는 것은 의미가 없기 때문에, 기계의 특성에 맞는 책임 규정과 통제 방식에 대한 논의를 지금부터 시작해야 한다고 생각합니다.”

<문화경제 박소현 기자>

맨 위로