AI 전문가는 Elon Musk가 서명한 편지가 충분하지 않다고 경고하며 ‘문자 그대로 지구상의 모든 사람이 죽을 것’이라고 말합니다.

AI 안전을 연구한 20년 이상의 경험을 가진 인공 지능 전문가는 개발에 대한 6개월 유예를 요구하는 공개 서한을 말했습니다. 강력한 AI 시스템 충분히 멀리 가지 않습니다.

Machine Intelligence Research Institute의 의사 결정 이론가인 Eliezer Yudkowsky는 최근 논평에서 “GPT-4보다 강력한 AI 시스템” 개발에 대한 6개월의 “중지”가 요구된다고 썼습니다. 테슬라 CEO 일론 머스크 그리고 수백 명의 다른 혁신가와 전문가들은 “상황의 심각성”을 과소평가합니다. 그는 더 나아가 “무기한이며 전 세계적으로” 새로운 대규모 AI 학습 모델에 대한 모라토리엄을 시행할 것입니다.

Future of Life Institute에서 발행하고 Musk와 Apple 공동 창립자 Steve Wozniak을 포함하여 1,000명 이상이 서명한 이 서한은 AI 시스템의 미래를 안내하기 위해 독립적인 감독자가 안전 프로토콜을 개발해야 한다고 주장했습니다.

편지에는 “강력한 AI 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 있을 때만 개발해야 한다”고 적었다. Yudkowsky는 이것이 불충분하다고 생각합니다.

Elon Musk, Apple 공동 창업자, 다른 기술 전문가들은 ‘거대한 AI 실험’: ‘위험한 경주’에 대한 일시 중지를 요구합니다.

2023년 1월 22일 브뤼셀에서 AI Brain과 함께 모바일에서 본 OpenAI ChatGPT.

2023년 1월 22일 브뤼셀에서 AI Brain과 함께 모바일에서 본 OpenAI ChatGPT. (Jonathan Raa/NurPhoto via Getty Images)

Yudkowsky는 Newsweek에 “핵심 문제는 (공개 서한에서 말했듯이) “인간과 경쟁하는” 지능이 아니라 AI가 인간보다 지능이 높아진 후에 일어나는 일입니다.

“저를 포함하여 이러한 문제에 몰두한 많은 연구자들은 현재 상황과 거의 같은 상황에서 초인간적으로 똑똑한 AI를 구축한 결과 말 그대로 지구상의 모든 사람이 죽을 것이라고 예상합니다.”라고 그는 주장합니다. “‘어쩌면 먼 기회’가 아니라 ‘당연히 일어날 일’처럼 말입니다.”

AI의 인공 지능 ‘대부’가 인류를 멸망시킬 가능성: ‘상상할 수 없는 일이 아닙니다’

OpenAI CEO Sam Altman은 2023년 2월 7일 워싱턴주 레드몬드에서 Microsoft에서 Bing용 ChatGPT 통합을 발표하는 기조 연설에서 연설합니다. OpenAI의 새로운 GPT-4 학습 모델은 지금까지 개발된 가장 진보된 AI 시스템으로 생성, 편집, 창의적이고 기술적 인 글쓰기 작업에 대해 사용자와 반복합니다.

OpenAI CEO Sam Altman은 2023년 2월 7일 워싱턴주 레드몬드에서 Microsoft에서 Bing용 ChatGPT 통합을 발표하는 기조 연설에서 연설합니다. OpenAI의 새로운 GPT-4 학습 모델은 지금까지 개발된 가장 진보된 AI 시스템으로 생성, 편집, 창의적이고 기술적 인 글쓰기 작업에 대해 사용자와 반복합니다. (제이슨 레드몬드/게티 이미지를 통한 AFP)

Yudkowsky에게 문제는 인간보다 더 지능적인 AI가 제작자에게 불순종하고 인간의 생명을 돌보지 않을 수 있다는 것입니다. “터미네이터”를 생각하지 마십시오. “초기에는 컴퓨터에 국한된 수백만 배의 인간 속도로 생각하는 전체 외계 문명을 그 관점에서 볼 때 매우 어리 석고 매우 느린 생물의 세계에서 시각화하십시오. “라고 그는 썼습니다.

Yudkowsky는 해결해야 할 문제에 대한 가장 최적의 솔루션을 결정하는 초 지능을 처리하기 위해 제안된 계획이 지구상의 모든 생명체를 전멸시키는 것이라고 경고합니다. 그는 또한 AI 연구원들이 학습 모델이 “자기 인식”이 되었는지 실제로 알지 못하는지, 만약 그렇다면 그것을 소유하는 것이 윤리적인지 여부에 대해 우려를 제기합니다.

민주당과 공화당, AI 개발을 규제하기 위한 요구를 중심으로 연합: ‘의회는 참여해야 합니다’

Tesla, SpaceX 및 Twitter CEO Elon Musk와 1,000명 이상의 기술 리더 및 인공 지능 전문가는 사회와 문명에 대한 위험을 경고하면서 OpenAI의 GPT-4보다 강력한 AI 시스템 개발을 일시적으로 중단할 것을 요구하고 있습니다.

Tesla, SpaceX 및 Twitter CEO Elon Musk와 1,000명 이상의 기술 리더 및 인공 지능 전문가는 사회와 문명에 대한 위험을 경고하면서 OpenAI의 GPT-4보다 강력한 AI 시스템 개발을 일시적으로 중단할 것을 요구하고 있습니다. (AP 사진/수잔 월시, 파일)

6개월은 계획을 세우기에 충분한 시간이 아니라고 그는 주장한다. “인공지능이라는 개념이 처음 제안되고 연구된 시점에서 오늘날의 역량에 도달하기까지 60년 이상이 걸렸습니다. 초인간 지능의 안전 – 완벽한 안전이 아니라 ‘말 그대로 모든 사람을 죽이지 않는다’는 의미의 안전 – 최소한 그 시간의 절반은 매우 합리적으로 걸릴 수 있습니다.”

대신 Yudkowsky는 강력한 AI 시스템 개발을 중단하기 위해 미국과 중국과 같은 경쟁국 간에도 국제 협력을 제안합니다. 그는 이것이 “완전한 핵 교환을 방지하는 것”보다 더 중요하며 “대규모 AI 훈련 실행의 위험을 줄이기 위해 필요한 것이라면” 국가들이 핵무기 사용을 고려해야 한다고 말했습니다.

FOX 뉴스 앱을 다운로드하려면 여기를 클릭하세요.

Yudkowsky는 “모든 것을 종료하십시오. “라고 씁니다. “대형 GPU 클러스터(가장 강력한 AI가 정제되는 대형 컴퓨터 팜)를 모두 종료하십시오. 대규모 훈련 실행을 모두 종료하십시오. 누구나 AI 시스템 훈련에 사용할 수 있는 컴퓨팅 성능의 한도를 정하고, 보다 효율적인 훈련 알고리즘을 보상하기 위해 향후 몇 년 동안 아래로 이동하십시오. 정부와 군대에 대한 예외는 없습니다.”

Yudkowsky의 과감한 경고는 인공 지능 소프트웨어가 계속해서 인기를 얻고 있는 상황에서 나온 것입니다. OpenAI의 ChatGPT는 최근 출시된 인공지능 챗봇 노래를 작곡하고 콘텐츠를 만들고 코드를 작성할 수 있어 사용자를 놀라게 했습니다.

OpenAI CEO Sam Altman은 이달 초 회사 설립에 대해 “여기서 주의해야 합니다.”라고 말했습니다. “나는 사람들이 우리가 이것에 대해 약간 무서워한다는 사실에 기뻐해야 한다고 생각한다.”

Fox News의 Andrea Vacchiano가 이 보고서에 기여했습니다.

Source link

You May Also Like