미 언론사 AP가 내부 직원을 위한 생성형 AI 사용 가이드라인을 16일 공개했다. 생성형 AI 도구에서 나온 콘텐츠는 ‘검증되지 않은 정보’로 봐야 한다는 것, 그리고 영상·이미지·오디오 콘텐츠를 AI와 결합해 변경하지 말라는 것이 핵심 골자다.
AP는 2014년부터 내부 업무 효율화를 위해 AI 기술을 사용하고 있다. 가령 기업 재무 보고서를 만들때 AI 기술로 업무를 자동화했으며, 스포츠 경기의 요약 정보를 제공하거나 영상 자막을 생성하는 과정에서 AI를 이용했다. 올 6월에는 AI를 도입해 뉴스 검색 기능을 향상했다. 지난 7월 오픈AI와 파트너십을 맺고 협업한다는 소식도 있었다. 해당 파트너십으로 AP는 오픈AI에 1985년 이후 발행한 기사 텍스트를 제공하고 언론사를 위한 생성형 AI 기술을 연구하고 있다.
AP는 생성형 AI 가이드라인으로 책임 있는 기사 작성을 도모할 예정이다. AP의 표준 및 포용성 담당 부사장 아만다 배럿(Amanda Barrett)은 공식 블로그를 통해 “정확성, 공정성, 신속성은 AP 뉴스 보도의 기본 가치이며, AP는 인공지능을 신중하게 사용하면 이러한 가치를 실현하고 시간이 지남에 따라 업무 방식을 개선할 수 있다고 믿는다. AP 언론인이라면 공유하는 정보의 정확성과 공정성에 대해 책임져야 한다”라며 가이드라인을 만들었다고 설명했다.
AP가 제시한 생성형 AI 사용 가이드라인은 다음과 같다.
• AP는 챗GPT의 제작사인 오픈AI와 라이선스 계약을 맺은 상태로 AP 직원은 신중하게 챗GPT를 실험할 수 있다. 하지만 게시 가능한 콘텐츠를 만드는 데 챗GPT를 사용하지 않는다.
• 생성형 AI 도구의 모든 결과물은 검증되지 않은 자료로 취급해야 한다. AP 직원은 게시물을 외부에 공개하기 전에 편집자의 주관을 갖고 검토하고, 결과물이 AP의 기존 지침을 제대로 준수했는지 확인한다.
• AP는 사진, 동영상, 오디오의 어떤 요소도 변경하지 않는다는 원칙을 가지고 있다. 따라서 생성형 AI를 사용하여 요소를 더하거나 빼는 것도 허용하지 않는다.
• 현실을 허위로 묘사한 게 확실하거나 혹은 그런 의심이 드는 AI 생성 이미지는 외부에 공개하지 않는다. 단, AI가 생성한 일러스트나 AI 예술 작품이 뉴스의 주제인 경우, 이미지 하단에 관련 사실을 명확히 표시한다는 전제하에 공개할 수 있다.
• 기밀 정보나 민감한 정보를 AI 도구에 입력하지 않기를 권장한다.
• 외부 자료가 결합된 AP 콘텐츠에 AI가 생성한 내용이 없는지 주의와 노력을 기울여 세심하게 확인하기를 권장한다.
• 생성형 AI를 사용하면 변경된 단어, 사진, 비디오 또는 오디오를 통해 허위 및 허위 정보를 의도적으로 퍼뜨리는 것이 훨씬 쉬워진다. 심지어 변경 흔적 없이 사실적이고 진짜인 것처럼 만들 수 있다. 이러한 콘텐츠를 실수로 사용하지 않으려면 언론인은 원본 콘텐츠의 출처를 파악하고, 이미지의 출처를 확인하기 위해 직접 해당 이미지 검색을 수행하고, 신뢰할 수 있는 미디어에서 유사한 내용의 보도가 있는지 확인하는 등 일반 기사를 쓸 때와 동일하게 주의를 갖고 회의적인 태도를 취해야 한다.
• 언론인은 자료의 진위 여부에 대해 조금이라도 의심이 든다면 해당 자료를 사용해서는 안 된다.
더버지는 “언론사 대부분이 AP 스타일북(편집자 주:영문 기사 작성 원칙을 정리한 가이드라인, AP뿐만 아니라 영미권 기업 및 대학에서 작문할 때 자주 참고하는 자료로 여겨진다)을 활용하거나 기준으로 삼는다”라며 “AP의 이번 지침은 AI를 이용하는 언론인 사이에서 논쟁을 일으키거나 영향을 미칠 수 있을 것”이라고 평가했다.
jihyun_lee@idg.co.kr