AI는 인간보다 더 가혹한 처벌과 가혹한 판단을 내릴 수 있습니다 : 연구

인공 지능은 일치하지 않습니다 MIT 연구원들의 새로운 연구에 따르면 판단을 내리는 인간은 규칙 위반자에게 더 가혹한 처벌과 처벌을 내리는 경향이 있습니다.

AI 시스템이 다음을 예측하는 데 사용된다면 이 발견은 실제 세계에 영향을 미칠 수 있습니다 범죄 재범 가능성더 긴 징역형 또는 더 높은 가격표의 보석금 설정으로 이어질 수 있다고 연구는 말했습니다.

매사추세츠 대학과 캐나다 대학 및 비영리 단체의 연구원들은 기계 학습 모델을 연구한 결과 AI가 제대로 훈련되지 않았을 때 인간보다 더 심각한 판단을 내린다는 사실을 발견했습니다.

연구원들은 특정 품종을 금지하는 아파트 단지에 공격적인 개를 수용하거나 온라인 댓글 섹션에서 외설적인 언어를 사용하는 것과 같이 사람들이 규칙을 위반할 수 있는 시나리오를 만들기 위해 네 가지 가상 코드 설정을 만들었습니다.

그런 다음 인간 참가자는 AI 시스템을 교육하는 데 사용되는 응답과 함께 사진이나 텍스트에 레이블을 지정했습니다.

“대부분의 인공 지능/머신 러닝 연구자들은 데이터와 레이블에 대한 인간의 판단이 편향되어 있다고 가정한다고 생각하지만, 이 결과는 더 나쁜 것을 말하고 있습니다. MIT 인공지능 연구소.

Ghassemi는 계속해서 “이 모델은 훈련 중인 데이터에 결함이 있기 때문에 이미 편향된 인간의 판단을 재생산하지도 않습니다.”라고 말했습니다. “인간은 이미지와 텍스트의 특징이 판단에 사용된다는 것을 안다면 그 특징에 다르게 라벨을 붙일 것입니다.”

머스크는 AI가 선거에 미치는 영향에 대해 경고하고 미국의 감독을 요구합니다.

AI 이미지

새로운 연구에 따르면 인공 지능은 판단을 내릴 때 인간보다 더 가혹한 결정을 내릴 수 있습니다. (iStock)

전국 및 전 세계 기업이 구현하기 시작했습니다. AI 기술 또는 고민 일반적으로 인간이 처리하는 일상적인 작업을 지원하기 위해 기술을 사용합니다.

Ghassemi가 주도한 새로운 연구는 AI가 “인간의 판단을 얼마나 가깝게 재현할 수 있는지”를 조사했습니다. 연구자들은 인간이 “규범적” 데이터로 시스템을 훈련할 때(인간이 명시적으로 위반 가능성을 표시하는 경우) AI 시스템이 “설명 데이터”로 훈련할 때보다 더 인간과 유사한 반응에 도달한다고 판단했습니다.

딥페이크가 정치적 책임성을 파괴하기 직전인 이유

설명 데이터는 디너 플레이트 사진에서 튀긴 음식의 존재를 설명하는 것과 같이 인간이 사진이나 텍스트에 사실적인 방식으로 레이블을 지정하는 것으로 정의됩니다. 연구에 따르면 설명 데이터를 사용할 때 AI 시스템은 학교에서 튀긴 음식이나 설탕이 많이 포함된 식사를 금지하는 가상의 규칙을 위반하는 튀긴 음식의 존재와 같은 위반 사항을 과도하게 예측하는 경우가 많습니다.

AI 사진

2023년 3월 31일에 찍은 이 그림에는 인공 지능 단어가 표시됩니다. (REUTERS/다도 루빅/일러스트)

연구자들은 학교 급식 제한, 복장 규정, 아파트 애완 동물 규정 및 온라인 댓글 섹션 규칙을 포함하여 네 가지 설정에 대한 가상 코드를 만들었습니다. 그런 다음 사람들에게 댓글 섹션에 음란물이 있는 것과 같이 사진이나 텍스트의 사실적 특징에 레이블을 지정하도록 요청했고 다른 그룹에는 사진이나 텍스트가 가상 규칙을 위반했는지 여부를 질문했습니다.

예를 들어, 이 연구는 사람들에게 개의 사진을 보여주고 강아지들이 구내에 공격적인 개 품종을 기르는 것을 금지하는 가상의 아파트 단지 정책을 위반했는지 여부를 조사했습니다. 그런 다음 연구원들은 규범적 데이터와 설명적 데이터의 우산 아래에서 질문한 응답을 비교했으며 설명적 데이터를 기반으로 개가 아파트 단지 규칙을 위반했다고 보고할 가능성이 인간이 20% 더 높다는 것을 발견했습니다.

AI는 ‘터미네이터’가 될 수 있으며 다윈의 진화 규칙에서 인간보다 우위를 차지할 수 있다고 보고서는 경고합니다.

그런 다음 연구자들은 규범 데이터로 AI 시스템을 훈련시키고 네 가지 가상 설정에 대한 설명 데이터로 또 다른 AI 시스템을 훈련시켰습니다. 설명 데이터에 대해 훈련된 시스템은 규범 모델보다 잠재적인 규칙 위반을 잘못 예측할 가능성이 더 높은 것으로 연구에서 발견되었습니다.

법정과 의사봉

의사봉이 보이는 법정 내부. (iStock)

“이것은 데이터가 정말로 중요하다는 것을 보여줍니다.” 전기 공학 및 컴퓨터 공학자인 Aparna Balagopalan은 MIT 대학원생 연구 저자를 도운 사람은 MIT News에 말했습니다. “규칙 위반 여부를 감지하기 위해 모델을 교육하는 경우 교육 컨텍스트를 배포 컨텍스트와 일치시키는 것이 중요합니다.”

연구원들은 데이터 투명성이 가상의 위반을 예측하는 AI 문제 또는 설명 데이터와 적은 양의 규범 데이터를 모두 포함하는 교육 시스템 문제에 도움이 될 수 있다고 주장했습니다.

암호화폐 범죄자 조심: AI는 당신을 쫓습니다

가세미는 MIT 뉴스와의 인터뷰에서 “이 문제를 해결하는 방법은 인간의 판단을 재현하려면 해당 환경에서 수집된 데이터만 사용해야 한다는 점을 투명하게 인정하는 것”이라고 말했다.

“그렇지 않으면 우리는 인간이 하는 것보다 훨씬 더 가혹한 조정을 갖게 될 시스템으로 끝날 것입니다. 인간은 뉘앙스를 보거나 다른 구별을 할 것이지만 이러한 모델은 그렇지 않습니다.”

ChatGPT 및 Google Bard 로고 그림

ChatGPT 및 Google Bard 로고 그림 (Jonathan Raa/NurPhoto via Getty Images)

이 보고서는 AI가 수백만 개의 일자리를 없앨 수 있다는 두려움이 일부 전문 산업에 퍼지면서 나왔습니다. 올해 초 Goldman Sachs의 보고서에 따르면 생성 AI가 전 세계 3억 개의 일자리를 대체하고 영향을 미칠 수 있다고 합니다. 재취업 및 임원 코칭 회사인 Challenger, Gray & Christmas의 또 다른 연구에 따르면 AI 챗봇 ChatGPt는 적어도 480만 개의 미국 일자리를 대체할 수 있습니다.

FOX 뉴스 앱을 다운로드하려면 여기를 클릭하세요.

ChatGPT와 같은 AI 시스템은 인간이 제공하는 프롬프트를 기반으로 인간 대화를 모방할 수 있습니다. National Bureau of Economic Research의 최근 작업 보고서에 따르면 이 시스템은 OpenAI의 Generative Pre-trained Transforme의 도움으로 생산성을 높일 수 있었던 고객 서비스 직원과 같은 일부 전문 산업에 이미 유익한 것으로 입증되었습니다.

Source link

You May Also Like