2020년 Middlebury Institute of International Studies의 테러리즘, 극단주의 및 대테러 센터의 연구원들은 ChatGPT의 기본 기술인 GPT-3가 “극단주의 커뮤니티에 대한 놀랍도록 깊은 지식”을 가지고 있으며 대량 저격수 스타일, 나치즘을 논의하는 가짜 포럼 스레드, QAnon의 방어, 심지어 다국어 극단주의 텍스트까지.
잘못된 정보와 거짓의 확산
- 인공 지능: 처음으로, AI 생성 페르소나 국가 주도의 허위 정보 캠페인에서 탐지되어 온라인 조작의 새로운 장을 열었습니다.
- 딥페이크 규칙: 기술을 규제하는 법률이 거의 없기 때문에 대부분의 국가에서 당국은 딥페이크에 대해 많은 조치를 취할 수 없습니다. 중국은 예외가 되기를 희망한다.
- 신세대를 위한 교훈: 핀란드는 학생들에게 선전에 대해 가르치는 새로운 방법을 테스트하고 있습니다. 다음은 다른 나라 성공에서 배울 수 있습니다.
- 코비드 신화: 전문가들은 특히 Gab과 같은 극우 플랫폼에서 코로나바이러스 잘못된 정보의 확산이 팬데믹의 지속적인 유산이 될 가능성이 있다고 말합니다. 그리고 쉬운 해결책은 없습니다
OpenAI는 기계와 인간을 사용하여 ChatGPT에 공급되고 생성되는 콘텐츠를 모니터링한다고 대변인이 말했습니다. 이 회사는 인간 AI 트레이너와 사용자의 피드백에 의존하여 유해한 교육 데이터를 식별하고 필터링하는 동시에 ChatGPT가 더 나은 정보에 입각한 응답을 생성하도록 가르칩니다.
OpenAI의 정책 부정직을 조장하거나 사용자를 속이거나 조작하거나 정치에 영향을 미치려는 시도를 위해 기술을 사용하는 것을 금지합니다. 회사는 무료 조정 도구 증오, 자해, 폭력 또는 성행위를 조장하는 콘텐츠를 처리하기 위해. 그러나 현재 이 도구는 영어 이외의 언어에 대해 제한된 지원을 제공하며 정치적 자료, 스팸, 속임수 또는 맬웨어를 식별하지 않습니다. ChatGPT는 “때때로 유해한 지침이나 편향된 콘텐츠를 생성할 수 있다”고 사용자에게 경고합니다.
지난 주 OpenAI 별도의 도구 발표 부분적으로 자동화된 잘못된 정보 캠페인을 식별하기 위해 인공 지능이 아닌 인간이 텍스트를 작성한 시점을 식별하는 데 도움이 됩니다. 이 회사는 자사 도구가 완전히 신뢰할 수 없다고 경고했습니다. 즉, AI 텍스트를 정확하게 식별하는 경우는 26%에 불과했고(사람이 쓴 텍스트에 레이블을 잘못 지정하는 경우는 9%) 회피할 수 있었습니다. 또한 이 도구는 1,000자 미만의 텍스트나 영어 이외의 언어로 작성된 텍스트로 인해 어려움을 겪었습니다.
Princeton의 컴퓨터 과학 교수인 Arvind Narayanan은 썼다 12월에 Twitter에서 그는 시험에서 학생들에게 던진 정보 보안에 대한 몇 가지 기본적인 질문을 ChatGPT에 요청했다고 말했습니다. 챗봇은 그럴듯하게 들리지만 실제로는 말도 안되는 답변으로 응답했다고 그는 썼습니다.
“위험은 당신이 이미 답을 알고 있지 않는 한 그것이 틀렸을 때 말할 수 없다는 것입니다.” 그가 썼다. “너무 불안해서 정신을 잃지 않았는지 확인하기 위해 참조 솔루션을 살펴봐야 했습니다.”
미디어 리터러시 캠페인, 생성 모델의 작업을 식별하는 “방사성” 데이터, 정부 제한, 사용자에 대한 엄격한 통제, 심지어 소셜 미디어 플랫폼의 개인 증명 요구 사항과 같은 완화 전술이 존재하지만 많은 방식에서 문제가 있습니다. 연구원들은 “위협을 유일하게 제거할 묘책은 없다”고 결론지었습니다.