TBC AI 활용 윤리강령 및 보도준칙
지역민영방송 TBC | 방송 저널리즘을 위한 AI 활용 기준
서문
TBC는 대구·경북 지역을 대표하는 민영방송사로서, 영상과 음성이 결합된 방송 매체의 고유한 영향력을 인식하며 AI 기술을 활용한다. 방송은 인쇄 매체와 달리 실시간 송출, 영상·음향의 감각적 몰입, 가정 내 불특정 다수 수신이라는 특성을 지닌다. 이러한 매체적 특성은 AI 활용에 있어 더욱 높은 수준의 윤리적 기준을 요구한다.
생성형 AI는 텍스트·영상·음성을 아우르는 멀티모달 환경을 가속화하고 있으며, 에이전틱 AI의 등장으로 콘텐츠 생산의 자동화 범위가 확대되고 있다. 동시에 딥페이크를 이용한 합성 영상, 가짜 뉴스 앵커, AI 생성 허위 인터뷰 등 방송 매체를 겨냥한 새로운 위협이 부상하고 있다.
본 준칙은 기사 텍스트 중심의 신문사 AI 가이드라인과 구별하여, 영상·음성·실시간 송출이라는 방송의 본질에 맞는 AI 활용 기준을 제시한다. 한국기자협회 '언론을 위한 생성형 인공지능 준칙', AI 기본법의 취지에 부합하며, TBC의 편집규약 및 윤리강령을 기반으로 한다.
제1장 총칙
제1조 [목적]
본 준칙은 TBC가 방송 뉴스, 시사, 교양, 오락 프로그램 및 디지털 콘텐츠의 제작·편집·송출·유통 과정에서 AI 기술을 활용함에 있어 준수해야 할 윤리적 기준과 실무 원칙을 정한다.
제2조 [기본 원칙]
① AI는 방송인(기자, PD, 아나운서, 카메라맨, 편집기자 등)의 역할을 보조하고 확장하는 도구이며, 방송의 기획·취재·현장 보도·앵커링을 대체하지 않는다.
② AI를 활용한 모든 방송 제작 및 디지털 유통은 TBC의 윤리강령과 편집규약에 부합해야 한다.
③ AI 기술의 활용은 대구·경북 시청자에 대한 신뢰성과 공익성을 최우선으로 한다.
④ AI 활용 정책의 수립·집행·감독을 위한 사내 책임자(AI 활용 관리자)를 지정하고, 활용 목표·방침·범위·조건을 전 구성원에게 공유한다.
제2장 방송 제작에서의 AI 활용
제3조 [AI 활용 범위]
회사는 다음 각 호의 영역에서 AI를 보조적으로 활용할 수 있다.
① 취재 기획: 데이터 분석, 트렌드 탐지, 아이디어 발굴, 취재원·자료 검색
② 영상 제작 보조: AI 기반 자막 생성, 영상 요약(하이라이트 추출), 숏폼 자동 편집, 색보정 보조, Vibe 편집 도구 활용
③ 음성·오디오: 뉴스 원고의 TTS(음성 합성) 활용, 방송 자막 STT(음성 인식) 변환, 다국어 더빙 보조
④ 그래픽·데이터 시각화: 뉴스 그래픽 자동 생성, 선거·재난 데이터의 실시간 시각화, 인포그래픽 보조
⑤ 콘텐츠 관리: 오탈자 교정, 방송원고 분류, 아카이브 검색·태깅, 팩트체크 지원
⑥ 시청자 서비스: 뉴스 개인화, AI 기반 추천, AEO 대응, 멀티플랫폼 콘텐츠 변환
제4조 [AI 활용 제한 — 방송 고유 기준]
방송 매체의 특성을 고려하여, 다음 각 호의 행위를 금지한다.
① 현장 보도 영상(뉴스 취재, 생방송 현장 등)에 AI를 이용해 피사체를 추가·삭제하거나 화면을 변조하는 행위
② 실존 인물의 음성을 AI로 합성하여 실제 발언인 것처럼 방송하는 행위
③ AI가 생성한 앵커·리포터 영상을 실제 방송인의 보도로 오인하게 하는 행위
④ 기자·PD의 확인 및 데스크 검토 없이 AI 생성 콘텐츠를 송출·게시하는 행위
⑤ AI 에이전트가 자율적으로 뉴스를 생산·편성·송출하는 것 (모든 AI 산출물은 인간의 최종 승인 필수)
⑥ AI로 생성한 영상·음성을 다큐멘터리, 탐사보도 등 사실 기록물에 실제 촬영분인 것처럼 삽입하는 행위
⑦ 재난·사건·사고 보도에서 AI 합성 영상을 근거 자료로 활용하는 행위
제3장 영상·음성 콘텐츠의 진위 보장
제5조 [사실 확인과 검증 — 영상·음성 특칙]
① AI 생성물은 검증되지 않은 원시 자료로 간주하며, 기자·PD는 텍스트뿐 아니라 영상·음성·이미지 각각에 대해 사실 확인 책임을 진다.
② 외부에서 유입된 영상·음성이 딥페이크 또는 AI 합성물로 의심될 경우, 기술적 검증(메타데이터 분석, AI 탐지 도구 활용 등)을 거친 후에만 방송에 활용한다.
③ AI가 생성한 번역 자막, 음성 변환 결과는 원어 확인 절차를 거치며, 오역·왜곡이 없는지 담당자가 검수한다.
④ AI의 기술적 한계(할루시네이션, 학습 데이터 편향 등)를 인지하고, 특히 수치·인명·지명 등 사실관계는 반드시 이중 검증한다.
제6조 [딥페이크 및 합성 콘텐츠 대응]
① 딥페이크 등 AI 합성 기술로 제작된 허위·조작 영상을 식별하기 위한 자체 검증 체계(AI 탐지 도구, 전문 인력)를 구축한다.
② 보도 과정에서 딥페이크로 의심되는 영상·음성이 발견될 경우, 사실 확인이 완료될 때까지 해당 콘텐츠의 방송을 보류한다.
③ 방송 광고 심의 과정에서 AI 합성 여부를 확인하고, AI로 생성된 가상 전문가·가상 인물이 실제 인물로 오인되지 않도록 조치한다.
④ 딥페이크 기술의 위험성을 시청자에게 알리고, 미디어 리터러시 향상에 기여하는 방송 콘텐츠를 제작·편성한다.
제4장 투명성
제7조 [AI 활용 고지 — 방송 표시 기준]
① AI가 주요 제작 과정(영상 생성·편집, 음성 합성, 이미지 생성, 그래픽 제작 등)에 활용된 경우, 방송 화면에 'AI 활용' 표시를 한다. 표시 방법은 화면 하단 자막, 프로그램 말미 크레딧, 또는 별도 고지 자막 중 콘텐츠 성격에 적합한 형태를 택한다.
② 디지털 플랫폼(홈페이지, 유튜브, SNS)에 게시되는 AI 활용 콘텐츠에는 게시물 본문 또는 영상 설명란에 AI 활용 사실을 명시하고, 정부의 'AI 생성물 표시제'를 준수한다.
③ AI로 합성된 음성(TTS)이 실제 방송인의 목소리를 모사한 경우, 해당 사실을 시청자에게 반드시 고지한다.
④ 단순 보조 작업(기획, 자료 조사, 교정, 내부 회의 요약 등)에 활용된 경우에는 공개하지 않을 수 있으며, 공개 여부 및 범위는 관리자의 판단을 따른다.
제5장 공정성·인권·저작권
제8조 [공정성과 다양성]
① AI 생성물이 편향, 차별, 혐오를 포함하지 않도록 방송 전 검토·수정한다.
② AI 알고리즘의 학습 데이터에 내재된 편향이 뉴스·시사 콘텐츠에 반영되지 않도록 정기 점검한다.
③ 지역 밀착형 방송사로서 대구·경북 지역의 다양한 관점과 소수자의 목소리가 AI 콘텐츠에 균형 있게 반영되도록 노력한다.
④ AI를 활용한 여론조사 분석, 선거 보도 등에서 알고리즘의 편향이 공정성을 해치지 않도록 특별히 유의한다.
제9조 [개인정보 보호와 초상·음성권]
① AI 시스템에 민감한 개인정보, 취재원 정보, 내부 기밀을 입력하지 않는다.
② AI로 생성된 콘텐츠가 타인의 명예, 초상권, 음성권, 프라이버시를 침해하지 않도록 주의한다. 방송 매체는 영상·음성을 통해 개인을 특정하기 용이하므로 인쇄 매체보다 높은 수준의 주의 의무를 적용한다.
③ 시청자 맞춤형 서비스 제공 시 개인정보 보호법 및 관련 규정을 준수하며, 시청 이력 데이터의 비식별화 처리를 원칙으로 한다.
제10조 [저작권 및 지적재산권]
① AI 학습에 사용되는 데이터의 저작권을 존중하며, 타 방송사·언론사·창작자의 영상·음성·음악·텍스트가 무단으로 AI 학습에 활용되지 않도록 유의한다.
② AI가 생성한 콘텐츠의 저작권 귀속에 관해 관련 법률 및 사내 규정에 따라 명확한 기준을 수립한다.
③ TBC가 제작한 방송 콘텐츠가 제3자에 의해 무단으로 AI 학습 데이터로 활용되는 것에 대해 적극적으로 권리를 보호한다.
제6장 책임과 거버넌스
제11조 [책무성]
① AI 활용으로 인한 오류, 피해, 저작권 침해가 발생할 경우 TBC가 법률적·윤리적 책임을 진다.
② AI 활용 콘텐츠에서 오류가 발견되면 신속히 수정하고, 방송을 통해 정정 사실을 시청자에게 공지한다.
③ AI 활용으로 인한 문제를 상시 점검하는 모니터링 체계를 구축하고 운영한다.
제12조 [프롬프트 작성자 및 제작 책임]
① AI를 활용한 콘텐츠 제작 시 프롬프트 작성자를 내부 시스템에 기록하여 제작 이력의 투명성을 확보한다.
② 프롬프트 작성자는 AI 생성물에 대한 1차 검토 책임을 지며, 최종 방송·게시의 책임은 관리자에게 있다.
③ 자동화된 뉴스 속보(재난 알림, 날씨, 교통 등)의 경우에도 AI 출력의 정확성을 확인하는 당직 담당자를 지정한다.
제13조 [보안 및 교육]
① AI 시스템의 보안을 정기적으로 점검하여 취재 자료, 미방송분, 개인정보 등의 유출을 방지한다.
② 기자, PD, 아나운서, 편집기자 등 방송 제작 전 인력을 대상으로 AI 활용 실무 교육 및 윤리 교육을 연 2회 이상 실시한다.
③ 교육 내용에는 AI 도구 실습, 프롬프트 엔지니어링, 딥페이크 탐지, AI 윤리 사례 분석 등을 포함한다.
④ 신규 AI 도구·시스템 도입 시 사전 교육을 완료한 후 현업에 적용한다.
제14조 [윤리위원회와 준칙 개정]
① AI 활용과 관련된 윤리적 문제를 다루기 위해 윤리위원회의 역할을 확대하고, 방송 기술 및 AI 전문가를 위원에 포함할 수 있다.
② 윤리위원회는 AI 활용에 따른 문제를 검토하고 해결 방안을 제시하며, 필요시 외부 전문가 자문을 구한다.
③ AI 기본법 시행, AI 생성물 표시제, 방송법 개정 등 관련 법률·제도의 변화에 따라 본 준칙을 연 1회 이상 검토하고 개정한다.
부칙
제1조 (시행일) 본 윤리강령 및 보도준칙은 2026년 1월 1일부터 시행한다.
제2조 (경과 규정) 본 준칙 시행 전에 진행 중인 AI 활용 프로젝트는 시행일로부터 3개월 이내에 본 준칙에 부합하도록 조정한다.
제3조 (준칙 해석) 본 준칙의 해석에 이의가 있을 경우 윤리위원회의 판단을 따른다.
