목요일, OpenAI는 AI 도구가 비밀 영향력 작전에 어떻게 사용되는지에 대한 최초의 보고서를 발표하여 회사가 러시아, 중국, 이스라엘 및 이란에서 시작된 허위 정보 캠페인을 중단했음을 밝혔습니다.
악의적인 공격자는 회사의 생성 인공 지능 모델을 사용하여 소셜 미디어 플랫폼에 광고 콘텐츠를 생성 및 전파하고 해당 콘텐츠를 다른 언어로 번역했습니다. 어떤 캠페인도 관심을 끌지 못하거나 많은 잠재고객에게 도달하지 못했습니다. 보고서에 따르면.
생성 AI가 호황을 누리고 있는 산업이 되면서, 온라인에서 잘못된 정보의 양과 질이 증가할 수 있는 잠재력에 대해 연구자들과 국회의원들 사이에 광범위한 우려가 있었습니다. ChatGPT를 만드는 OpenAI와 같은 AI 회사는 이러한 우려를 완화하고 기술에 장벽을 두려고 노력했지만 결과는 엇갈렸습니다.
39페이지 분량의 OpenAI 보고서는 광고용 소프트웨어 사용에 대한 AI 회사의 가장 자세한 보고서 중 하나입니다. OpenAI는 자사 연구원들이 지난 3개월 동안 정부와 민간 행위자가 혼합된 5건의 은밀한 영향력 행사와 관련된 계정을 발견하고 차단했다고 주장했습니다.
러시아에서는 두 개의 작전이 미국, 우크라이나 및 여러 발트해 연안 국가에 비판적인 콘텐츠를 제작하고 전파했습니다. 한 작업에서는 OpenAI 모델을 사용하여 코드를 디버깅하고 Telegram에 배포된 봇을 만들었습니다. 중국 영향력 작전은 영어, 중국어, 일본어, 한국어로 텍스트를 제작했고, 활동가들은 이를 트위터와 미디엄에 게시했습니다.
이란 대표들은 미국과 이스라엘을 공격하는 기사 전체를 작성하고 이를 영어와 프랑스어로 번역했습니다. Stoic이라는 이스라엘 정치 회사는 가자 지구의 이스라엘 전쟁에 반대하는 미국 학생의 시위가 반유대주의적이라고 비난하는 게시물을 포함하여 다양한 콘텐츠를 생성하는 가짜 소셜 미디어 계정 네트워크를 운영했습니다.
OpenAI가 플랫폼에서 금지한 허위 정보 확산자 중 다수는 이미 연구자들과 당국에 알려져 있었습니다. 미국 재무부 러시아 남성 2명에 제재 부과 지난 3월 그들은 OpenAI가 발견한 캠페인 중 하나의 배후에 있는 것으로 알려졌으며 Meta는 정책 위반으로 올해 플랫폼에서 Stoic을 금지했습니다.
보고서는 또한 보다 설득력 있는 외국어 게시물 게시와 같은 콘텐츠 제작의 특정 측면을 개선하는 방법으로 생산적인 AI가 허위 정보 캠페인에 어떻게 통합될 수 있는지 강조하지만 이것이 선전을 위한 유일한 도구는 아닙니다.
보고서는 “이러한 모든 작전은 어느 정도 인공지능을 사용했지만 어느 것도 독점적으로 사용하지 않았다”고 밝혔다. “대신 AI가 생성한 자료는 손으로 쓴 텍스트나 온라인으로 복사한 밈과 같은 전통적인 형식과 함께 그들이 게시한 다양한 유형의 콘텐츠 중 하나에 불과했습니다.”
어떤 캠페인도 눈에 띄는 영향을 미치지 않았지만, 이 기술을 사용하면 악의적인 행위자가 생성 AI를 통해 선전 제작 규모를 확장할 수 있다는 사실을 어떻게 발견했는지 알 수 있습니다. 이제 AI 도구를 사용하여 콘텐츠를 보다 효율적으로 작성, 번역 및 게시할 수 있어 허위 정보 캠페인 생성 수준이 줄어듭니다.
지난 한 해 동안 악의적인 행위자들은 정치와 여론에 영향을 미치기 위해 전 세계 국가에서 생성 AI를 사용해 왔습니다. Deepfake 오디오, AI 생성 이미지 및 텍스트 캠페인이 선거 캠페인을 방해하는 데 사용되어 OpenAI와 같은 회사에 도구 사용을 제한하라는 압력이 가중되었습니다.
OpenAI는 정책을 위반하는 계정을 삭제하는 것 외에도 은밀한 영향력 행사에 대해 유사한 보고서를 정기적으로 발행할 계획이라고 밝혔습니다.
“동민은 커피에 대한 깊은 지식을 갖춘 전문가로, 다양한 커피 블렌드와 추출 방식에 대한 연구를 해왔습니다. 게임 세계에서도 그의 이름은 잘 알려져 있으며, 그의 취향은 다양한 게임 장르를 아우릅니다. 알코올과 특히 베이컨에 대한 그의 열정은 독특하며, 다양한 행사와 이벤트의 주최자로서 그의 통찰력은 뛰어납니다.”