그녀가 Google의 Ethical AI 팀을 공동으로 이끌었을 때 Timnit Gebru는 인공 지능에 대한 기술 산업의 접근 방식에 의문을 제기하는 저명한 내부 목소리였습니다.
구글이 1년여 전 그녀를 회사에서 퇴출시키기 전의 일이다. 이제 Gebru는 DAIR(Distributed Artificial Intelligence Research Institute)의 설립자로서 외부에서 변화를 시도하고 있습니다.
에리트레아 부모에게서 태어났다. 에티오피아, Gebru는 최근 Associated Press와 Big Tech의 AI 우선 순위와 AI 기반 소셜 미디어 플랫폼이 아프리카 및 기타 지역에 얼마나 열악한 서비스를 제공하는지에 대해 이야기했습니다. 새로운 연구소는 피해를 가장 많이 겪을 가능성이 있는 장소와 사람들의 관점에서 AI 연구에 중점을 둡니다.
그녀는 또한 Black in AI 그룹의 공동 창립자이기도 합니다. Black in AI는 현장에서 흑인 고용과 리더십을 장려합니다. 그리고 그녀는 안면 인식 소프트웨어에서 인종 및 성별 편견을 발견한 획기적인 2018년 연구를 공동 저술한 것으로 유명합니다. 인터뷰는 길이와 명확성을 위해 편집되었습니다.
Q. DAIR를 하게 된 계기는 무엇인가요?
A: Google에서 해고된 후, 많은 대형 기술 회사에서 블랙리스트에 올라야 한다는 것을 알았습니다. 내가 하지 않을 사람들은 그런 환경에서 일하는 것이 매우 어려울 것입니다. 나는 단지 더 이상 그렇게 하지 않을 예정이었다. DAIR를 시작하기로 결정했을 때 가장 먼저 떠오른 것은 배포하고 싶다는 것이었습니다. 나는 특정 장소에 있는 사람들이 기술 회사의 행동과 AI 개발이 진행하는 과정에 영향을 줄 수 없다는 것을 보았습니다. 구축하거나 연구해야 할 AI가 있다면 어떻게 하면 잘할 수 있을까요? 일반적으로 주변에 있는 커뮤니티를 참여시켜 혜택을 받을 수 있기를 원합니다. 짓지 말아야 할 경우가 있을 때 우리는 ‘글쎄, 이것은 지어서는 안 된다’라고 말할 수 있습니다. 우리는 기술 솔루션주의의 관점에서 접근하지 않습니다.
Q: 더 면밀한 조사가 필요한 가장 우려되는 AI 애플리케이션은 무엇입니까?
A: 저를 매우 우울하게 만드는 것은 지금 많은 사람들이 피해에 대해 더 잘 알고 있는 것처럼 보이는 응용 프로그램조차도 감소하기보다는 증가하고 있다는 것입니다. 우리는 이 기술을 기반으로 한 얼굴 인식 및 감시에 대해 오랫동안 이야기해 왔습니다. 몇 가지 승리가 있습니다. 예를 들어 많은 도시와 지방 자치 단체가 법 집행 기관의 안면 인식 사용을 금지했습니다. 그러나 정부는 우리가 경고해 왔던 이 모든 기술을 사용하고 있습니다. 첫째, 전쟁을 하고, 그 다음에는 그 전쟁의 결과로 난민을 내보내는 것입니다. 따라서 미국-멕시코 국경에서는 이전에 볼 수 없었던 모든 종류의 자동화된 것들을 보게 될 것입니다. 우리가 이 기술을 사용하는 첫 번째 방법은 사람들이 접근하지 못하도록 하는 것입니다.
Q: 다른 곳에서는 일어나지 않았을 수도 있는 DAIR가 추진하고 있는 프로젝트에 대해 설명해 주시겠습니까?
A: 우리가 집중하고 있는 것 중 하나는 이 연구를 수행하는 과정입니다. 우리의 초기 프로젝트 중 하나는 남아프리카의 공간적 아파르트헤이트를 연구하기 위해 위성 이미지를 사용하는 것입니다. 우리 연구원(Raesetje Sefala)은 마을에서 자란 사람입니다. 그녀가 다른 커뮤니티를 공부하고 급습하는 것이 아닙니다. 그녀가 커뮤니티와 관련된 일을 하는 것입니다. 우리는 결과를 일반 대중에게 전달하는 방법을 알아내기 위해 시각화 작업을 하고 있습니다. 우리는 누구에게 도달하고 싶은지 신중하게 생각하고 있습니다.
Q: 유통을 강조하는 이유는 무엇입니까?
A: 기술은 지금 전 세계에 영향을 미치고 있으며 그것을 생산하고 발전에 영향을 미치는 사람들과 피해를 느끼는 사람들 사이에는 엄청난 불균형이 있습니다. 아프리카 대륙에 대해 이야기하면 기후 변화로 인해 발생하지 않은 엄청난 비용을 지불하고 있습니다. 그리고 우리는 AI 기술을 사용하여 기후 난민을 막고 있습니다. 이중 처벌이겠죠? 그것을 뒤집기 위해, 저는 우리가 이 발전을 주도하고 미래에 영향을 미치지 않는 테이블에 있지 않은 사람들이 그렇게 할 수 있는 기회를 가질 수 있도록 옹호해야 한다고 생각합니다.
Q: AI와 컴퓨터 비전에 관심을 갖게 된 계기는 무엇인가요?
A: 나는 엔지니어나 과학자가 되는 것과 전쟁이나 노동 문제 또는 그와 유사한 것을 연결하지 않았습니다. 내 인생의 상당 부분을 내가 좋아하는 주제에 대해 생각했습니다. 회로 설계에 관심이 있었습니다. 그리고 나서 음악도 좋아했습니다. 피아노를 오랫동안 쳤기 때문에 여러 가지 관심사를 결합하고 싶었습니다. 그러다가 Apple에서 오디오 그룹을 찾았습니다. 그리고 석사와 박사 과정으로 돌아올 때 컴퓨터 비전을 다루는 영상 처리 수업을 들었습니다.
Q: Google 경험이 접근 방식을 어떻게 바꾸었습니까?
A: Google에 있을 때 사람들의 행동을 바꾸려고 많은 시간을 보냈습니다. 예를 들어, 그들은 워크숍을 조직하고 모든 남자가 — 그들 중 15명 정도 — 저는 그들에게 이메일을 보낼 것입니다. ‘이봐, 그냥 그런 워크숍을 가질 수는 없어.’ 나는 지금 내가 만들고 싶은 것과 이미 문제의 오른쪽에 있는 사람들을 지원하는 방법에 대해 생각하는 데 더 많은 에너지를 소비하고 있습니다. 나는 다른 사람들을 개혁하기 위해 내 모든 시간을 보낼 수 없습니다. 다른 일을 하고 싶어도 그렇게 할 수 있는 권한이 없는 사람들이 많이 있습니다.
Q: Google에서 일어난 일이 언어 학습 모델에 대한 우려 사항에 대해 더 자세히 조사하게 되었다고 생각하십니까? 그것들이 무엇인지 설명해 주시겠습니까?
Q: Google에서 나에게 일어난 일 중 일부는 언어 기술의 한 유형인 대규모 언어 모델에 대해 쓴 논문과 관련이 있습니다. Google 검색은 이를 사용하여 쿼리 또는 표시되는 질문 및 답변 상자, 기계 번역, 자동 수정 및 기타 여러 항목의 순위를 지정합니다. 그리고 우리는 더 많은 데이터와 더 많은 컴퓨팅 성능을 갖춘 더 크고 더 큰 언어 모델을 채택하려는 이러한 러시를 보았고 사람들에게 이러한 러시를 경고하고 잠재적인 부정적인 결과에 대해 생각하기를 원했습니다. 나는 그들이 나를 해고하지 않았다면 신문이 파장을 일으켰을 것이라고 생각하지 않습니다. 이 문제에 대해 관심을 갖게 된 것을 기쁘게 생각합니다. 이것이 없었다면 사람들이 큰 언어 모델에 대해 생각하게 하는 것이 어려웠을 것이라고 생각합니다. 내 말은, 나는 분명히 해고되지 않았으면 하는 바램이다.
Q: 미국에서 AI의 잠재적인 피해를 줄이기 위해 백악관과 의회에서 원하는 조치가 있습니까?
A: 지금은 규제가 없습니다. 나는 기술 회사들이 그들이 해를 끼치지 않는다는 것을 우리에게 증명해야 하는 일종의 법을 원합니다. 그들이 새로운 기술을 도입할 때마다 무엇인가가 해롭다는 것을 증명해야 하는 책임은 시민들에게 있으며, 그런 경우에도 우리는 목소리를 내기 위해 싸워야 합니다. 몇 년 후 규제에 대한 논의가 있을 수 있습니다. 그런 다음 기술 회사는 다음 문제로 넘어갔습니다. 제약회사가 운영하는 방식이 아닙니다. 그들은 (잠재적 해악에 대해) 보지 않은 것에 대해 보상을 받지 않을 것입니다 — 보지 않은 것에 대해 처벌을 받을 것입니다. 우리는 기술 회사에 대해 그런 종류의 표준을 가져야 합니다.