차세대 군비 경쟁은 핵전쟁과 유사한 ‘멸종’ 사건을 일으킬 수 있습니다.

AI 안전 비영리 단체의 공동 설립자는 Fox News에 누가 가장 강력한 AI 기계를 개발할 수 있는지 알아보기 위한 국가와 기업 간의 인공 지능 군비 경쟁이 인류에게 실존적 위협이 될 수 있다고 말했습니다.

댄 헨드릭스(Dan Hendrycks) AI 안전 센터 전무이사는 “AI는 멸종 위기에 처할 수 있으며 그 이유 중 하나는 현재 우리가 AI 군비 경쟁에 갇혀 있기 때문”이라고 말했다. “우리는 점점 더 강력한 기술을 구축하고 있지만 이를 완전히 제어하거나 이해하는 방법을 모릅니다.”

OpenAI CEO 샘 알트만

OpenAI의 CEO Sam Altman은 AI가 인류에게 실존적 위협을 가한다는 AI 안전 센터의 성명서에 서명했습니다. (Getty Images를 통한 Bill Clark/CQ-Roll Call, Inc)

이어 “우리는 핵무기에 대해서도 같은 일을 했다”고 말했다. “우리는 실존적 위험과 멸종의 위험에 대해 모두 같은 배를 타고 있습니다.”

AI 군비 경쟁은 멸종으로 이어질 수 있습니다인류를 위한 레벨 이벤트: AI SAFETY DIRECTOR

여기에서 더 많은 FOX 뉴스 디지털 원본 보기

헨드릭스의 회사 성명을 발표했다 화요일 경고 “[m]AI로 인한 멸종 위험을 완화하는 것은 전염병 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적으로 우선 순위가 되어야 합니다.” OpenAI CEO Sam Altman 및 “AI의 대부,” Geoffrey Hinton은 성명서에 서명했습니다.

최근 알트만 정부에 AI 규제 촉구 기술이 제기하는 위험을 “완화하기 위해” 의회에서 증언했습니다.

조직의 성명서에도 서명한 헨드릭스는 폭스뉴스와의 인터뷰에서 “AI 개발이 상대적으로 통제되지 않는 과정이고 AI가 자동화에 능숙하기 때문에 결국 사회에서 더 많은 영향력을 갖게 되는 것이 우려된다”고 말했다. “그들은 서로 경쟁하고 있고 많은 작업을 실행하는 에이전트의 생태계가 있으며 우리는 그 프로세스에 대한 통제력을 잃을 수도 있습니다.”

“그것은 우리를 이류 종처럼 만들거나 네안데르탈인의 길을 갈 수 있습니다.”라고 그는 계속했습니다.

수백만 명의 패스트푸드 근로자가 5년 이내에 일자리를 잃을 수 있습니다. 이유는 다음과 같습니다.

Tesla CEO Elon Musk는 이에 대해 솔직하게 말했습니다. 잠재적 AI 위협이 기술이 “문명 파괴” 또는 선거 간섭으로 이어질 수 있다고 말했습니다. 머스크도 편지에 서명 3월에 대규모 AI 실험 중단을 옹호했습니다.

엘론 머스크

Elon Musk는 AI가 “문명 파괴”를 일으킬 수 있다고 경고했습니다. (저스틴 설리반/게티 이미지)

그러나 편지는 OpenAI, Microsoft 및 Google과 같은 대형 AI 개발자에게 실험을 중단하도록 촉구하지 못했습니다.

Hendrycks는 “우리는 AI 군비 경쟁을 벌이고 있으며 이는 핵무기 경쟁이 그랬던 것처럼 잠재적으로 우리를 재앙 직전으로 몰고 갈 수 있습니다.”라고 말했습니다. “그래서 우리는 이 문제에 대한 글로벌 우선 순위가 필요하다는 것을 의미합니다.”

FOX 뉴스 앱을 다운로드하려면 여기를 클릭하세요.

그러나 세계에서 가장 강력한 AI 시스템을 만드는 조직은 개발을 늦추거나 일시 중지할 인센티브가 없다고 Hendrycks는 경고했습니다. AI 안전 센터는 성명서가 사람들에게 AI가 신뢰할 수 있고 중요한 위험을 제기한다는 것을 알리기를 희망합니다.

Hendrycks는 Fox News와의 인터뷰에서 “이제 국제 협약이나 규정과 같은 다른 글로벌 우선 순위처럼 처리될 수 있도록 대화를 시작할 수 있기를 바랍니다.”라고 말했습니다. “우리는 이러한 위험을 줄이기 위해 이것을 더 큰 우선 순위, 사회적 우선 순위 및 기술적 우선 순위로 취급해야 합니다.”

Hendrycks와의 전체 인터뷰를 보려면, 여기를 클릭.

Source link

You May Also Like