AI 도구는 많은 일을 만들어내는데, 그게 큰 문제다

블로그

홈페이지홈페이지 / 블로그 / AI 도구는 많은 일을 만들어내는데, 그게 큰 문제다

Aug 05, 2023

AI 도구는 많은 일을 만들어내는데, 그게 큰 문제다

인공지능이 세상을 장악하려면 먼저 한 가지 문제를 해결해야 한다. 봇이 환각을 일으키고 있습니다. ChatGPT와 같은 AI 기반 도구는 생산 능력으로 우리를 매료시켰습니다.

인공지능이 세상을 장악하려면 먼저 한 가지 문제를 해결해야 한다. 봇이 환각을 일으키고 있습니다.

ChatGPT와 같은 AI 기반 도구는 겉보기에 어떤 프롬프트에도 권위 있고 인간처럼 들리는 응답을 생성하는 능력으로 우리를 매료시켰습니다. 그러나 더 많은 사람들이 숙제 도우미, 직장 연구, 건강 문의 등을 위해 이 번잡한 기술을 사용함에 따라 가장 큰 함정 중 하나가 점점 더 분명해지고 있습니다. 즉, AI 모델은 종종 상황을 구성하는 경우가 많습니다.

연구원들은 Meta의 AI 책임자가 트윗에서 말했듯이 AI 모델이 부정확한 정보를 '환각' 또는 심지어 '조작'으로 뿜어내는 경향을 언급하게 되었습니다. 한편 일부 소셜 미디어 사용자는 챗봇을 단순히 "병리학적 거짓말쟁이"라고 비난합니다.

그러나 백악관의 AI 권리 장전 청사진 공동 집필을 도운 브라운 대학의 수레쉬 벤카타수브라마니안(Suresh Venkatasubramanian) 교수에 따르면 이러한 모든 설명은 기계의 동작을 의인화하려는 우리의 너무나 인간적인 경향에서 비롯되었다고 합니다.

Venkatasubramanian은 현실적으로 ChatGPT와 같은 AI 도구를 뒷받침하는 기술인 대규모 언어 모델이 사용자 프롬프트에 대해 "그럴듯한 답변을 생성"하도록 훈련을 받았다고 말했습니다. “그러므로 그런 의미에서 정확하든, 사실이든, 꾸며낸 것이든 그럴듯하게 들리는 대답은 합리적인 대답이고, 그것이 바로 그것이 만들어내는 것입니다.”라고 그는 말했습니다. “그곳에는 진리에 대한 지식이 없습니다.”

AI 연구원은 뭔가 잘못되었거나 나쁜 의도를 갖고 있다는 의미를 담고 있는 환각이나 거짓말보다 더 나은 행동 비유는 이러한 컴퓨터 출력을 그의 어린 아들이 4살 때 이야기를 하는 방식과 비교하는 것이라고 말했습니다. “'그럼 무슨 일이 일어났나요?'라고만 말하면 됩니다. 그는 계속해서 더 많은 이야기를 제작할 것입니다.”라고 Venkatasubramanian은 말했습니다. "그리고 그는 계속해서 계속할 것입니다."

AI 챗봇 뒤에 있는 회사들은 최악의 환각을 방지하기 위해 몇 가지 가드레일을 마련했습니다. 그러나 생성 AI에 대한 세계적인 과대 광고에도 불구하고 현장의 많은 사람들은 챗봇 환각이 해결 가능한 문제인지 여부에 대해 여전히 갈등을 겪고 있습니다.

간단히 말해서, 환각은 AI 모델이 "현실과 일치하지 않는 것들을 만들어 내기 시작할 때"를 의미한다고 워싱턴 대학교 교수이자 Center for an의 공동 창립자인 제빈 웨스트(Jevin West)는 말합니다. 정보를 대중에게 알렸습니다.

"그러나 그것은 순수한 자신감을 가지고 해냈습니다. 그리고 '미국의 수도는 어디입니까?'와 같은 매우 간단한 질문을 할 때와 같은 자신감을 가지고 해냈습니다."라고 West는 덧붙였습니다.

이는 사용자가 아직 답을 알지 못하는 내용을 챗봇에 요청하는 경우 무엇이 사실인지 아닌지를 식별하기 어려울 수 있음을 의미한다고 West는 말했습니다.

AI 도구로 인한 여러 가지 주목할만한 환각이 이미 헤드라인을 장식했습니다. Google이 ChatGPT의 높은 기대를 받고 있는 경쟁자인 Bard의 데모를 처음 공개했을 때 이 도구는 James Webb 우주 망원경의 새로운 발견에 대한 질문에 대한 응답으로 매우 공개적으로 잘못된 답변을 내놓았습니다. (당시 구글 대변인은 CNN과의 인터뷰에서 이번 사건은 "엄격한 테스트 과정의 중요성을 강조했다"고 말했으며 회사는 "바드의 대응이 품질, 안전, 실제 정보의 근거에 대한 높은 기준을 충족하도록 하기 위해 노력하고 있다"고 말했다. .”)

뉴욕의 한 베테랑 변호사도 법적인 연구를 위해 ChatGPT를 사용했을 때 난관에 부딪혔고, 챗봇이 단순히 꾸며낸 것으로 보이는 6개의 "가짜" 사례가 포함된 브리핑을 제출했습니다. 뉴스 매체 CNET도 AI 도구로 생성된 기사가 복리 원리를 설명하라는 요청을 받았을 때 매우 부정확한 개인 금융 조언을 제공한 후 정정을 발표해야 했습니다.

그러나 AI 환각을 단속하면 ChatGPT에 시나 노래 가사를 쓰도록 요청하는 사용자와 같이 보다 창의적인 노력을 하는 사람들을 돕는 AI 도구의 능력이 제한될 수 있습니다.