AI는 언어를 마스터합니다. 우리는 그것이 말하는 것을 믿어야 합니까?

그러나 GPT-3의 유창함이 많은 관찰자들을 현혹시켰기 때문에 큰 언어 모델 접근 방식은 지난 몇 년 동안 상당한 비판을 받기도 했습니다. 일부 회의론자들은 소프트웨어가 블라인드 모방만 가능하다고 주장합니다. 즉, 인간 언어의 구문 패턴을 모방하지만 자체 아이디어를 생성하거나 복잡한 결정을 내릴 수 없기 때문에 LLM 접근 방식이 유사한 것으로 성숙하지 못하게 하는 근본적인 한계가 있습니다. 인간 지능. 이러한 비평가들에게 GPT-3은 AI 과대 광고의 오랜 역사에서 가장 최근에 빛나는 대상일 뿐이며 연구 비용과 관심을 궁극적으로 막다른 골목으로 밝혀 다른 유망한 접근 방식이 성숙하지 않도록 합니다. 다른 비평가들은 GPT-3과 같은 소프트웨어가 훈련된 데이터의 편견, 선전 및 잘못된 정보로 인해 영원히 손상될 것이라고 생각합니다.

이 논쟁에서 어느 위치에 있든 최근 대규모 언어 모델의 개선 속도는 향후 몇 년 동안 상업적으로 배포되지 않을 것이라고 상상하기 어렵게 만듭니다. 그리고 그것은 정확히 어떻게 AI의 다른 급진적인 발전을 세상에 공개해야 하는지에 대한 질문을 제기합니다. Facebook과 Google의 부상으로 우리는 새로운 기술 영역의 지배가 어떻게 빠르게 사회에 대한 놀라운 힘으로 이어질 수 있는지, 그리고 AI가 궁극적인 효과에서 소셜 미디어보다 훨씬 더 변혁적이라고 위협하는 것을 보았습니다. 그러한 약속과 남용의 가능성이 있는 그러한 규모와 야망을 가지고 건설하고 소유할 수 있는 올바른 종류의 조직은 무엇입니까?

아니면 아예 구축해야 합니까?

OpenAI의 기원 2015년 7월, 실리콘 밸리의 상징적인 심장인 샌드 힐 로드에 있는 로즈우드 호텔에서 개인 만찬을 위해 소규모 기술계 저명인사 그룹이 모였습니다. 만찬은 최근 기술 세계의 두 가지 발전(하나는 긍정적이고 다른 하나는 문제가 있음)이 진행되는 가운데 이루어졌습니다. 한편으로는 계산 능력의 급진적 발전과 신경망 설계의 새로운 돌파구로 인해 기계 학습 분야에서 확연한 흥분감을 느꼈습니다. 필드가 초기 과대 광고에 부응하지 못한 수십 년 동안 긴 ‘AI 겨울”이 마침내 해동되기 시작했다는 느낌이 들었습니다. 토론토 대학(University of Toronto)의 한 그룹은 이전에 달성한 어떤 신경망보다 훨씬 높은 정확도로 사진(개, 성, 트랙터, 테이블)의 개체 클래스를 식별하기 위해 AlexNet이라는 프로그램을 훈련했습니다. Google은 빠르게 AlexNet 제작자를 고용하는 동시에 DeepMind를 인수하고 Google Brain이라는 자체 이니셔티브를 시작했습니다. Siri 및 Alexa와 같은 지능형 비서의 주류 채택은 스크립트가 있는 에이전트라도 소비자 히트작을 돌파할 수 있음을 보여주었습니다.

그러나 같은 기간 동안 Google이나 Facebook과 같이 한때 인기를 끌었던 기업이 거의 독점에 가까운 권력, 음모 이론의 증폭, 우리의 주의를 거침없이 빨아들이는 등 비판을 받으면서 Big Tech에 대한 대중의 태도가 크게 바뀌고 있었습니다. 알고리즘 피드를 지향합니다. 인공 지능의 위험에 대한 장기적인 두려움은 특집 페이지와 TED 무대에서 나타났습니다. 옥스퍼드 대학의 닉 보스트롬(Nick Bostrom)은 그의 저서 ‘초지능(Superintelligence)’을 출간하여 첨단 AI가 인류의 이익에서 벗어나 잠재적으로 재앙적인 결과를 초래할 수 있는 다양한 시나리오를 소개했습니다. 2014년 말, 스티븐 호킹이 BBC에 발표한 ‘완전한 인공지능의 발달은 인류의 종말을 부를 수 있다”는 주장이 나왔다. 소셜미디어 시대를 특징짓는 기업 통합의 사이클이 이미 AI와 함께 일어나고 있는 것처럼 보였지만, 이번에만 알고리즘은 그렇지 않을 수도 있다. 양극화를 심거나 가장 높은 입찰자에게 관심을 팔면 결국 인류 자체를 파괴할 수 있습니다. 그리고 다시 한 번, 모든 증거는 이 권력이 소수의 실리콘 밸리 거대 기업에 의해 통제될 것임을 시사했습니다.

7월 밤 Sand Hill Road에서 열린 만찬의 의제는 야심만만하지 않다면 아무 것도 아니었습니다. 웹 2.0 시대와 웹 2.0 시대를 괴롭히는 단기적인 부정적인 결과를 모두 피하면서 가능한 한 가장 긍정적인 결과를 향해 AI 연구를 주도할 최선의 방법을 찾는 것이었습니다. 장기적인 실존 위협. 그 만찬을 통해 새로운 아이디어가 구체화되기 시작했습니다. 곧 Y Combinator의 Sam Altman과 최근 Stripe를 떠난 Greg Brockman이 완전히 집착하게 될 아이디어였습니다. 흥미롭게도 아이디어는 조직적이기보다는 기술적이지 않았습니다. AI가 안전하고 유익한 방식으로 세상에 공개되려면 거버넌스, 인센티브 및 이해 관계자 참여 수준의 혁신이 필요했습니다. 이 분야에서 인공 일반 지능(AGI)이라고 부르는 기술 경로는 아직 그룹에 명확하지 않았습니다. 그러나 Bostrom과 Hawking의 우려스러운 예측은 AI에 의한 인간과 같은 지능의 달성이 결국 AI를 발명하고 통제하는 사람에게 놀라운 양의 힘과 도덕적 부담을 통합할 것이라고 확신했습니다.

2015년 12월, 이 그룹은 OpenAI라는 새로운 조직의 설립을 발표했습니다. Altman은 Brockman이 기술을 감독하는 기업의 CEO로 서명했습니다. 만찬에 참석한 또 다른 참석자인 AlexNet의 공동 창립자인 Ilya Sutskever는 Google에서 연구 책임자로 영입되었습니다. (저녁 만찬에도 참석했던 Elon Musk는 이사회에 합류했지만 2018년에 떠났습니다.) 블로그 게시물, Brockman과 Sutskever는 ”OpenAI는 비영리 인공 지능 연구 회사”라고 적었습니다. “우리의 목표는 재정적 수익을 창출해야 할 필요성에 구애받지 않고 인류 전체에 가장 도움이 되는 방식으로 디지털 지능을 발전시키는 것입니다.” 그들은 다음과 같이 덧붙였습니다. 그리고 자유의 정신으로 가능한 한 광범위하고 고르게 분배됩니다.”

OpenAI 설립자들은 다음을 발표할 것입니다. 공공 헌장 3년 후, 새 조직의 핵심 원칙을 설명합니다. 이 문서는 초기부터 Google의 ”Don’t be evil” 슬로건에 대한 그다지 미묘하지 않은 발굴로 쉽게 해석되었으며, 신기술의 사회적 이익을 최대화하고 피해를 최소화하는 것이 항상 그렇지는 않다는 인식입니다. 간단한 계산. Google과 Facebook이 폐쇄 소스 알고리즘과 독점 네트워크를 통해 글로벌 지배에 도달한 동안 OpenAI 창립자는 다른 방향으로 나아가 새로운 연구와 코드를 전 세계와 자유롭게 공유하겠다고 약속했습니다.

Source link

You May Also Like