AI 포즈 ‘멸종 위험’, 업계 리더 경고

업계 리더 그룹은 그들이 구축하고 있는 인공 지능 기술이 언젠가는 인류에게 실존적 위협이 될 수 있으며 전염병 및 핵전쟁과 동등한 사회적 위험으로 간주되어야 한다고 화요일에 경고할 계획입니다.

“AI로 인한 멸종 위험을 완화하는 것은 전염병 및 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적으로 우선 순위가 되어야 합니다.”라고 읽습니다. 한 문장 진술 비영리단체인 AI안전센터에서 공개할 예정이다. 공개 서한에는 AI 분야에서 일하는 350명 이상의 경영진, 연구원 및 엔지니어가 서명했습니다.

서명자에는 주요 AI 회사 중 세 곳의 최고 경영진이 포함되었습니다. OpenAI의 최고 경영자 Sam Altman; Google DeepMind의 최고 경영자 Demis Hassabis; Anthropic의 최고 경영자 Dario Amodei.

신경망에 대한 선구적인 연구로 튜링상을 수상하고 종종 현대 AI 운동의 “대부”로 여겨지는 세 명의 연구원 중 두 명인 Geoffrey Hinton과 Yoshua Bengio는 해당 분야의 다른 저명한 연구원들과 마찬가지로 성명서에 서명했습니다. 세 번째 튜링상 수상자이자 메타의 AI 연구 노력을 이끄는 Yann LeCun은 화요일 현재 서명하지 않았습니다.)

이 성명은 인공 지능의 잠재적 피해에 대한 우려가 커지는 시점에 나온 것입니다. ChatGPT 및 기타 챗봇에서 사용하는 AI 시스템 유형인 소위 대규모 언어 모델의 최근 발전으로 인해 AI가 곧 대규모로 사용되어 잘못된 정보와 선전을 퍼뜨리거나 수백만 개의 사무직 일자리를 없앨 수 있다는 우려가 제기되었습니다. .

결국 일부 사람들은 AI가 속도를 늦추기 위해 아무 조치도 취하지 않으면 몇 년 안에 사회적 규모의 혼란을 일으킬 수 있을 만큼 충분히 강력해질 수 있다고 믿습니다.

이러한 두려움은 수많은 업계 리더들이 공유하고 있으며, 그들이 구축하고 있는 기술(많은 경우 경쟁사보다 더 빨리 구축하기 위해 맹렬히 경쟁하고 있음)이 심각한 위험을 내포하고 있으며 더 엄격하게 규제되어야 한다고 주장하는 특이한 입장에 놓이게 합니다.

이번 달 Altman, Mr. Hassabis, Mr. Amodei는 Biden 대통령과 Kamala Harris 부통령을 만나 AI 규제에 대해 이야기했습니다. 안에 회의 후 상원 증언Mr. Altman은 고급 AI 시스템의 위험이 정부 개입을 정당화할 만큼 심각하다고 경고하고 AI의 잠재적 피해에 대한 규제를 촉구했습니다.

AI 안전 센터(Center for AI Safety)의 전무이사인 댄 헨드릭스(Dan Hendrycks)는 인터뷰에서 공개 서한은 자신이 처한 기술의 위험에 대해 개인적으로만 우려를 표명한 일부 업계 리더들에 대한 “커밍아웃”을 의미한다고 말했습니다. 개발 중.

Hendrycks 씨는 “AI 커뮤니티에서도 소수의 불운자만 있다는 매우 일반적인 오해가 있습니다.”라고 말했습니다. “그러나 사실 많은 사람들이 개인적으로 이러한 일에 대해 우려를 표명할 것입니다.”

일부 회의론자들은 AI 기술이 실존적 위협을 가하기에는 아직 너무 미숙하다고 주장합니다. 오늘날의 AI 시스템에 관해서는 장기적인 위험보다 편향되고 잘못된 응답과 같은 단기적인 문제에 대해 더 걱정합니다.

그러나 다른 사람들은 AI가 너무 빠르게 개선되어 일부 영역에서 이미 인간 수준의 성능을 능가했으며 다른 영역에서는 곧 능가할 것이라고 주장했습니다. 그들은 이 기술이 진보된 능력과 이해의 징후를 보여서 다양한 작업에서 인간 수준의 성능을 능가할 수 있는 인공 지능 유형인 “인공 일반 지능” 또는 AGI가 그렇지 않을 수도 있다는 두려움을 불러일으킨다고 말합니다. 멀다.

안에 지난 주 블로그 게시물, Mr. Altman과 다른 두 명의 OpenAI 임원은 강력한 AI 시스템을 책임감 있게 관리할 수 있는 몇 가지 방법을 제안했습니다. 그들은 선도적인 AI 제조업체 간의 협력, 대규모 언어 모델에 대한 더 많은 기술 연구, 핵무기 사용을 통제하려는 국제 원자력 기구와 유사한 국제 AI 안전 조직의 구성을 촉구했습니다.

Altman 씨는 또한 대규모 첨단 AI 모델 제작자가 정부 발급 라이선스를 등록해야 하는 규칙에 대한 지지를 표명했습니다.

3월에는 1,000명이 넘는 기술자와 연구원들이 또 다른 공개 서한에 서명 “더욱 강력한 디지털 마인드를 개발하고 배치하기 위한 통제 불능 경쟁”에 대한 우려를 언급하면서 가장 큰 AI 모델 개발을 6개월 동안 중단할 것을 촉구했습니다.

AI에 초점을 맞춘 또 다른 비영리 단체인 Future of Life Institute가 조직한 이 서한에는 Elon Musk와 다른 유명한 기술 리더가 서명했지만 주요 AI 연구실의 서명은 많지 않았습니다.

총 22단어에 불과한 Center for AI Safety의 새로운 성명의 간결함은 특정 위험의 특성이나 이러한 위험 발생을 방지하기 위한 단계에 대해 동의하지 않을 수 있지만 강력한 위험에 대한 일반적인 우려를 공유하는 AI 전문가를 통합하기 위한 것입니다. AI 시스템이라고 Hendrycks 씨는 말했습니다.

Hendrycks 씨는 “우리는 30가지 잠재적인 개입으로 구성된 매우 큰 메뉴를 추진하고 싶지 않았습니다. “그런 일이 발생하면 메시지가 희석됩니다.”

이 성명은 처음에 Mr. Hinton을 포함한 몇몇 유명 AI 전문가들과 공유되었습니다. 이번 달에 Google에서 직장을 그만 두었습니다. 인공 지능의 잠재적 피해에 대해 더 자유롭게 말할 수 있도록 그는 말했습니다. 거기에서 몇 개의 주요 AI 연구실로 이동하여 일부 직원이 서명했습니다.

수백만 명의 사람들이 엔터테인먼트, 교제 및 생산성 향상을 위해 AI 챗봇으로 전환하고 기본 기술이 빠른 속도로 개선됨에 따라 AI 리더의 경고의 시급성이 높아졌습니다.

Altman 씨는 상원 소위원회에서 “이 기술이 잘못되면 상당히 잘못될 수 있다고 생각합니다.”라고 말했습니다. “우리는 그런 일이 일어나지 않도록 정부와 협력하고 싶습니다.”

Source link

You May Also Like