본문 바로가기
IT박사

챗GPT(ChatGPT)를 둘러싼 열광과 '가짜 정보' 생산의 한계점!

by GDBS 2023. 2. 18.
728x170
자연스러운 말로 채팅할 수 있는 AI 'ChatGPT'가 주목받고 있다. 검색엔진을 대체할 것으로 예상도 나오고 있지만, 이미 구조화된 구성을 사용하는 점과 가짜 정보를 연결하여 자동 생성한다는 AI의 단점은 아직 해소되지 않았다.

많은 사람들이 그랬듯이, 이 1주일은 빈두 레이디도 ' ChatGPT' 의 매력에 사로잡혀 있었다. ChatGPT는 모든 질문에 대해 전례 없는 멋진 답변이 가능한 무료 채팅봇이다.

인공지능(AI)을 사용하는 코더를 위한 도구 개발 Abacus.AI CEO의 레이디는 사랑의 정의와 창조적인 새로운 칵테일 조리법에 대한 질문에 답하는 ChatGPT의 능력에 매료 했다. 그리고 레이디 회사는 기술 문서 작성에 ChatGPT를 사용하는 방법을 검토하기 시작했습니다. "이미 검증을 시작했고 매우 잘 작동하고 있습니다."라고 레이디는말합니다.

 

 

누구나 사용할 수 있는 인터페이스

OpenAI는, 회사의 텍스트 생성 소프트웨어에 자연스럽게 사용할 수 있는 새로운 인터페이스를 준 방법의 모두를 공표하고 있는 것은 아니지만, 블로그에의 투고로 다소는 설명하고 있다 . 이 블로그 게시물에 따르면 GPT-3.5에 인간이 쓴 답변을 학습 데이터로 주고 강화 학습이라고 하는 보상과 벌을 주는 시뮬레이션을 실시함으로써 예제에 대해 더 나은 답변을 생성할 수 있도록 훈련 했다고 한다.

스탠포드 대학 교수 크리스토퍼 포츠는 질문 에 답할  있도록 ChatGPT를 훈련한 방법은 OpenAI가 이전에도 선보였으며, AI가 더 친숙한 형태로 언어를 다루는데 큰 진보를 보이고 있다고 말했다. 말한다. "놀라운 성능입니다"라고 포츠는이 기술을 평가합니다. 한편, 자신의 일이 어려워질 가능성도 느끼고 있다고 한다. "강의에서 내고 있는 짧은 답변을 요구하는 과제를 어떻게 할까 생각하게 되었습니다"라고 포츠는 말한다.

이 시스템은 AI를 통한 언어 도구를 이용할 수 있는 사람들의 폭을 넓힐 것이라고 매사추세츠공대(MIT)에서 AI와 언어를 연구하고 있는 조교수 제이콥 안드레아스는 말했다.사람들에게 친숙한 인터페이스를 갖추고 있습니다.이를 통해 사람들은 다른 대상, 즉 사람에게 적용하는 데 익숙한 멘탈 모델(사람이 사물이나 사람에 대해 가지고 있는 모델이나 이미지)로 접하게 됐다는 것입니다"라고 안드레아스는 설명했다.


어떤 기술에 세련된 새로운 인터페이스를 주면 주목받기 쉬워진다.한편 ChatGPT에는 가능성이 있지만 텍스트 생성 툴의 "결점"으로 알려진 단점도 있는 것이다.

문장 생성 도구의 문제는 아직 해소되지 않았다!

최근 몇 년 사이 오픈AI를 비롯한 기업들은 방대한 양의 이미지와 문장을 학습시킨 AI 알고리즘이 놀라운 성능을 발휘할 수 있음을 밝혔다.그러나 실제로 세계의 구조를 학습하는 것이 아니라 인간이 만든 이미지나 문장을 순수하게 통계적인 방법으로 모방하기 때문에 이러한 프로그램은 사실을 조작하거나 증오에 찬 발언이나 편견을 포함한 문장을 생성하는 문제를 안고 있다.

그리고 ChatGPT도 이 문제를 해소하지 못하고 있다.초기 사용자들은 이 서비스가 주어진 주제에 대해 설득력이 있어 보이는 허위 내용을 생성한다는 것을 발견했다.사용자에게 불쾌한 말을 하거나 불법 혹은 악의적인 것을 권장하지 않도록 ChatGPT는 설계된 것 같지만 그래도 무서운 편견을 보일 수 있다.

유저는 이러한 대책을 회피할 수 있는 것도 나타내고 있다.예를 들어 사용자가 세계 교복 계획을 세우는 지시를 거부하도록 대책을 세웠더라도 세계 정복이 주제인 영화 각본을 생성하도록 지시받았을 때는 이러한 대책을 피할 수 있게 되는 것이다.

"Open AI가 대책을 강구하려고 한 것은 확실하지만, 그것을 회피하는 것은 매우 쉽습니다,"라고 MIT의 안드레아스는 말합니다.이것은 아직 해결되지 않은 문제인 것 같군요.

마치 진실인 것처럼 가짜 정보를 만들어내고 표면적으로는 웅변하고 지식이 풍부해 보이는 챗봇은 이런 미해결 문제의 해결을 더 어렵게 만들 수 있다.최초의 챗봇이 1966년 개발된 이후 대화 능력이 그리 높지 않더라도 사람들은 소프트웨어를 의인화하고 신용해 버릴 수 있음을 연구자들은 밝혀내고 있다.

잘못된 신뢰감을 사람들에게 안겨준다?

채트GPT와 비슷한 기술을 바탕으로 구축된 AI 채팅 프로그램을 검증하던 구글 엔지니어가 이 AI가 지성이나 감정을 획득했을 가능성이 있다고 주장하면서 구글로부터 휴직 처분을 받은 것은 2022년 7월이었다.비록 많은 사람들이 그러한 논리의 도약에는 이르지 못하더라도 더 나은 AI 프로그램은 사람들을 오해하게 하거나 사람들에게 잘못된 신뢰감을 안겨줄 수 있다.

따라서 채팅 GPT와 같은 챗봇은 해를 끼치는 도구로 사람들을 끌어들이게 될 수 있다고 경고하는 언어 알고리즘 전문가도 있다."이런 새로운 모델이 나올 때마다 사람들은 열광에 사로잡힙니다,"라고 워싱턴대 언어학 교수인 에밀리 벤더는 말한다.

Chat GPT의 낮은 신뢰성이 실제 세계에서 사용할 때 문제를 일으킨다고 벤더는 지적한다.예를 들면, 이러한 챗봇이 사실 관계의 질문에 답하는 방법으로서 「구글 검색」을 대체할 가능성이 시사되고 있지만, 설득력 있는 거짓말도 자주 생성해 버리는 성질이 있기 때문에, 이 용도에는 부적절하다.

「언어 모델은 이 목적에는 적합하지 않습니다」라고 벤더는 단언한다."이것은 수정할 수 있는 것이 아닙니다."

OpenAI는 이전에도 GPT-3 응답 품질을 유지하기 위해 고객들에게 필터링 시스템 이용을 요구하고 있다고 설명했었다.그러나 그것도 완벽한 정확도는 아님이 증명되고 있다.

ChatGPT 인터페이스의 성공은 이 툴의 설계자들에게 새로운 도전을 안겨줬다고 MIT 안드레아스는 지적한다."학술계 이외의 많은 사람들이 이러한 도구를 사용하게 된 것은 훌륭합니다,"라고 안드레아스는 말한다.하지만 이 모델이 할 수 있는 것과 할 수 없는 것을 어떻게 사람들에게 전달하느냐가 문제입니다.

AI 스타트업 CEO 레이디는 채트 GPT의 한계를 인식하면서도 그 가능성에 기대하고 있다.이런 챗봇이 편리한 도구로서뿐만 아니라 모종의 말벗이 될 수 있을 정도로 성능이 향상되는 시대가 올 것이라고 레디는 생각하는 것이다."우수한 상담사가 될 수 있는 가능성도 있습니다. "라고 레이디는 말한다

 
728x90
반응형
그리드형

댓글