• 인쇄
  • 전송
  • 보관
  • 기사목록

[인터뷰] 박형빈 서울교대 교수 “AI 시대, 발달과 시민성이 핵심 기준”

“선언이 아닌 ‘작동하는 AI 윤리 기준’이 필요합니다”

  •  

cnbnews 박소현⁄ 2026.02.04 09:05:22

박형빈 서울교육대학교 윤리교육과 교수. 사진=박소현 기자

 

생성형 인공지능이 일상과 산업 전반으로 빠르게 확산되면서, 기술의 가능성만큼이나 그 영향이 인간의 사고와 관계, 사회 규범 전반으로 깊숙이 스며들고 있다.

 

인공지능 기본법 제정을 계기로 제도적 논의도 본격화되고 있지만, 여전히 AI를 어떤 기준으로 사회에 받아들여야 하는지에 대한 질문은 충분히 다뤄지지 않고 있다는 지적이 나온다. AI 사용이 인간의 발달과 시민성, 관계의 윤리에 어떤 변화를 가져오는지에 대한 논의 역시 마찬가지다.

 

AI가 교육과 공공 영역에까지 본격적으로 도입되는 만큼, 윤리는 기술 활용의 부속물이 아니라 인간을 보호하기 위한 핵심 기준으로 재정립돼야 한다는 목소리도 커지고 있다. 단순한 원칙 선언을 넘어, 발달 단계와 사회적 맥락을 고려한 구체적인 윤리 기준이 필요하다는 문제의식이다.

 

이 같은 흐름 속에서 박형빈 서울교육대학교 윤리교육과 교수를 만났다. 박 교수는 AI를 둘러싼 윤리 논의가 이제 ‘잘 쓰는 방법’을 넘어서, 어떤 인간과 어떤 시민을 길러낼 것인가라는 질문으로 확장돼야 한다고 강조하며, 대한민국 사회에 필요한 AI 윤리의 방향과 과제를 짚었다.

 

- 인공지능을 단순한 도구나 기술이 아니라, 인간의 판단과 감정, 관계 방식까지 재구성하는 ‘환경’으로 봐야 한다는 지적이 나옵니다. 지금 시점에서 AI를 이런 존재론적 환경으로 다뤄야 하는 이유는 무엇이라고 보십니까.

 

“AI는 더 이상 바깥에 있는 도구가 아닙니다. 인간의 주의력과 감정, 판단과 선택, 관계의 방식까지 지속적으로 재배치하는 환경이 되었고, 그 환경은 인간의 뇌와 마음이 형성되는 경로에 개입합니다. 

 

알고리즘은 무엇을 보게 하고 무엇에 머물게 하며 무엇을 믿게 할지를 설계하고, 이 설계는 개인의 취향이나 편의 수준을 넘어 사회의 시민성과 민주주의의 질까지 바꿉니다. 그래서 AI는 기술이 아니라 인간을 재구성하는 존재론적 환경으로 다뤄져야 합니다.

 

이 시점에서 중요한 질문은 ‘AI를 얼마나 잘 쓰게 할 것인가’가 아닙니다. ‘AI 환경 속에서 어떤 인간을 길러낼 것인가’, ‘어떤 시민을 형성할 것인가’가 국가적 질문이 되어야 합니다. 교육·행정·의료·사법 등 사회 전 분야에서 AI가 의사결정에 개입하는 순간, 윤리는 선택적 장식이 아니라 인간 보호를 위한 최소 조건이 됩니다.”

 

- 그동안 AI 윤리는 ‘인간 중심’, ‘공정성’, ‘신뢰’ 같은 원칙 중심으로 논의돼 왔습니다. 하지만 이런 선언적 윤리만으로는 실제 위험을 막기 어렵다는 지적도 있습니다. 왜 지금 ‘AI 윤리 각론’이 필요하다고 보시는지 설명해 주시겠습니까.

 

“‘인간 중심’, ‘공정성’, ‘투명성’, ‘신뢰’ 같은 원칙은 방향을 말해 주지만, 현실에서 작동하는 안전장치가 되지 못합니다. 원칙이 위험을 막으려면 현장 단위의 규정과 절차로 내려와야 하고, 그것이 바로 각론입니다.

 

어떤 연령에게 어떤 설계가 위험한지, 어떤 영역에서 어떤 오류가 치명적인지, 사고가 났을 때 책임을 누구에게 어떻게 귀속할지, 무엇을 점검하고 무엇을 금지할지까지 구체화돼야 합니다.

 

AI 윤리는 ‘좋은 말을 선언하는 문서’가 아니라 ‘실제로 작동하는 기준 체계’여야 합니다. 특히 AI는 빠르게 바뀌고 위험도 함께 진화합니다. 따라서 각론은 일회성 권고가 아니라, 법·제도적으로 의무화되고 정기 갱신되는 국가 기준이어야 합니다.”

 

- AI 시대의 첫 번째 위기로 아동·청소년의 ‘발달권 침식’을 꼽으셨습니다. 이 문제를 단순한 사용 시간이나 과몰입 문제가 아니라, 발달 경로에 대한 구조적 개입으로 봐야 하는 이유는 무엇인가요.

 

“가장 시급한 문제는 아동·청소년입니다. 아이들은 성인처럼 환경을 선택할 수 없고, 발달 단계에서 환경의 영향을 더 크게 받습니다. 그래서 핵심은 ‘사용 시간’이 아니라 ‘설계’입니다. 자동재생, 무한스크롤, 즉각 보상 구조는 뇌의 주의·충동·자기조절 체계를 특정 방향으로 강화하거나 약화시키는 방식으로 작동합니다. 

 

특히 자기조절과 판단을 담당하는 전두엽 기능이 자리 잡는 시기에 이러한 UX가 반복되면, 단순한 습관의 문제가 아니라 발달 경로 자체에 개입하는 문제가 됩니다.

 

이 문제를 ‘가정이 관리하면 된다’는 말로 처리할 수 없습니다. 발달 단계에서 안전 기준을 마련하는 것은 공중보건과 같은 성격의 국가 책임입니다. 그래서 발달친화 UX 기준, 연령 적합성 평가, 위험 설계의 제한, 발달 영향평가 같은 제도가 필요합니다. 이것은 개인 책임을 강화하려는 정책이 아니라, 발달권을 보호하기 위한 공적 안전망입니다.”

 

- 아동·청소년을 단순한 사용자나 소비자가 아니라 ‘발달 단계에 있는 존재’로 봐야 한다는 관점이 중요해 보입니다. 발달친화 UX란 무엇이며, 국가와 플랫폼은 어떤 기준과 책임을 져야 한다고 보십니까.

 

“발달 단계를 전제한 UX/서비스 설계 기준이 필요합니다. 핵심은 ‘얼마나 오래 썼는가’가 아니라 ‘무엇이 어떤 방식으로 반복 강화되는가’입니다. 특히 주의 포획, 즉각 보상, 행동 강화, 정서 및 인지 과부하를 유발하는 설계 요소가 발달 단계에서 어떤 영향을 갖는지 사전에 평가하고 제한하는 것입니다.

 

정책 언어로는 ‘금지’와 ‘의무’가 결합된 구조가 필요합니다. 사업자에게는 발달 영향과 위험 설계 요소를 점검하는 발달친화 UX 체크리스트와 연령 적합성 평가, 고위험 요소에 대한 사전 설계 변경 의무를 부과하는 방식이 현실적입니다. 

 

‘아동의 자기조절을 약화시키는 설계’는 개인의 취향이 아니라 안전 기준의 대상이며, 여기서 국가 역할은 사용을 단속하는 것이 아니라 설계의 위험을 표준화해 관리하는 것으로 재정의됩니다.”

 

- 사이버불링, 혐오, 과몰입, 비교 불안 등 디지털 환경의 문제들이 심화되고 있습니다. 이런 상황에서 필요한 것은 기능 중심의 디지털 교육이 아니라 ‘시민성 교육’이라는 주장도 나옵니다. AI 시대에 시민성은 어떻게 재정의돼야 할까요.

 

“아동의 현실은 사이버불링, 혐오, 유해 콘텐츠, 과몰입, 비교불안이 일상화된 환경이며 더 극심해 지고 있습니다. 이러한 현실을 매우 우려스럽게 생각하고 있습니다. 이 환경을 단지 ‘기기 사용법을 익히는 디지털 교육’으로 대응하면 문제는 더 커집니다. 

 

시민성은 기술 숙련이 아니라, 권리와 책임, 배려와 존중, 공론장 참여의 규범, 관계의 윤리로 구성되는 인격적 역량입니다. 여기서 필요한 것이 제대로 잘 설계된 AI윤리 교육 인프라입니다. 

 

AI 시대의 시민성은 특히 두 가지가 중요합니다. 첫째, 알고리즘과 생성형 AI가 만들어내는 정보의 편향과 조작 가능성을 분별하고 근거를 검증하는 능력입니다. 둘째, 온라인과 AI 관계에서 인간의 경계를 지키고 타자에 대한 책임을 유지하는 능력입니다. 

 

결국 교육의 초점은 ‘활용’이 아니라 ‘비판·검증·책임’으로 이동해야 합니다.”

 

- 일각에서는 AI에게 책임이나 도덕성을 부여하려는 논의도 나오고 있습니다. 하지만 AI가 도덕적 행위자가 될 수 없다는 지적도 분명합니다. AI 시대에 책임을 기계로 이전하는 접근이 왜 위험하다고 보시는지, 인간의 역할은 어떻게 재정의돼야 할까요.

 

“AI는 고통을 느끼지 못하고, 신체가 없고, 타인의 고통에 공명하지 않으며, 자기 성찰을 통해 윤리적 결정을 내리지 못합니다. AI가 하는 일은 확률적 계산과 최적화에 기반한 출력 생성입니다. 

 

따라서 AI에게 책임을 묻는 방식으로 윤리를 설계하면, 책임은 공중으로 사라집니다. ‘AI가 그렇게 판단했다’는 문장이 사회적 면책의 도구가 되는 순간, 윤리는 무력해집니다.

 

인간은 경험을 해석해 의미를 만들고, 타인의 고통에 반응하며, 결과에 책임을 지는 존재입니다. 그래서 AI가 확산될수록 인간의 역할은 더 분명해져야 합니다. 앞으로의 인간 역할은 ‘AI가 내놓은 답안을 따르는 존재’가 아니라 ‘AI의 답안을 비판하고 검증하고 책임지는 존재’로 재정의돼야 합니다.”

 

- 해결책으로 ‘대한민국형 AI 윤리 각론’의 제도화를 제안하셨습니다. 발달권, 교육, 플랫폼 책임, 공공 영역 등에서 어떤 기준들이 반드시 법·제도적으로 마련돼야 한다고 보십니까.

 

“필요한 것은 선언이 아니라 작동하는 각론입니다. 다음과 같은 기준들이 법·제도적으로 마련돼야 합니다. 발달권 관점에서는 연령별 발달친화 UX 기준이 필요합니다. 즉각 보상 구조나 감정 과부하를 유도하는 설계에 대한 제한, 연령 적합성 평가, 연령별 사용 기준의 표준화가 포함돼야 합니다. 

 

교육 현장에서는 교사가 편향·환각·위조·저작권·책임소재를 실제 수업에서 다룰 수 있도록 교사용 안전·윤리 지침서가 필요합니다. 플랫폼 기업에는 책임성과 투명성, 아동 대상 위험 설계의 금지, 사전 영향평가 같은 의무가 명시돼야 합니다. 

 

공공·교육 영역에서 AI를 도입할 때는 프라이버시뿐 아니라 발달·정서·관계 영향까지 포함하는 교육·윤리 영향평가와 인증 체계가 필요합니다. 시민과 학부모에게는 연령별 디지털 조절, 윤리 체크리스트, 가정 내 갈등 해결 가이드, 의존도 점검 도구 등이 제공돼야 합니다.

 

이 모든 것은 ‘권고’가 아니라 ‘의무’여야 합니다. AI 위험은 개인의 선의나 자율규제만으로 통제되지 않습니다. 국가 기준이 제도화되고, 정기적으로 갱신되며, 현장에서 점검 가능할 때만 ‘모두를 위한 AI’가 가능해집니다.”

 

- AI와 관련해 국회가 해야 할 역할은 규제가 아니라 ‘국가 기준의 확립’이라는 말씀도 인상적입니다. 기본법 차원에서 어떤 기준과 체계가 갖춰져야 한다고 보시는지 구체적으로 설명해 주시겠습니까.

 

“내가 국회에 요구하는 것은 기술을 막는 규제가 아닙니다. 기술이 인간을 훼손하지 않도록 최소한의 안전선과 책임 구조를 세우는 국가 기준입니다. 

 

기본법 수준의 ‘AI 시대 국가 기준’이 마련되어야 하고, 그 안에 각론의 제정·갱신·평가·보고 체계와 컨트롤타워가 포함되어야 합니다. 동시에 아동·청소년 발달권 보호, 국가교육과정의 시민성·AI 윤리 강화, 교사 전문성 체계, 관계형 AI 가이드라인, 통합 윤리 플랫폼이 하나의 생태계로 연결되어야 합니다.

 

AI는 빠르게 변합니다. 그래서 원칙을 반복하는 것보다, 변화에 대응하는 업데이트 가능한 국가 기준이 더 중요합니다.”

 

- 마지막으로, AI 시대 국가 경쟁력의 핵심은 기술 속도가 아니라 인간의 깊이라는 주장에 공감하는 목소리도 있습니다. AI 윤리 각론의 법제화가 결국 어떤 사회를 만드는 데 기여해야 한다고 보십니까.

 

“AI 시대의 경쟁력은 모델 성능이 아니라 신뢰와 안전, 책임과 투명성을 뒷받침하는 윤리 체계와 교육 시스템의 수준에 달려 있습니다. 아이들이 자기조절을 잃지 않고, 조작과 혐오에 흔들리지 않으며, AI를 비판적으로 활용하고 책임지는 시민으로 성장할 수 있다면 그 사회가 장기적으로 가장 강해집니다. 결국 선택은 기술의 속도가 아니라 인간의 깊이이며, 그 깊이를 지키는 방식이 AI 윤리 각론의 법제화입니다.”

 

<문화경제 박소현 기자>

관련태그
인터뷰  박형빈  AI 윤리  서울교대  윤리교육

배너
배너
배너

많이 읽은 기사

배너
배너
배너
배너
배너
배너
배너