이 녀석이 틀린 말을 마치 진짜처럼 늘어 놓는다.
원래 사기꾼들도 진실과 거짓을 적절히 섞어서 사기를 쳐 먹는데..
ChatGPT가 딱 그렇다.
명확히 틀린 답을 내 놓았을 때, 틀렸다고 알려주면 즉각 수긍하고 다른 답을 내 놓는다.
하지만 이미 신뢰는 뒤틀어진 상태.
문장묶음을 주고 정리시키거나 문장 스타일을 바꾸는 것과 같이..
작업물을 주고 작업을 시키는 용도로는 적당하지만,
답변 내용을 신뢰하는 것은 매우 위험하다.
정리하면,
시키는 일을 대신하는 비서의 역할은 잘 할 수 있겠으나..
질문에 대한 답변을 주는 지식인의 역할은 GPT4가 나온 이후에나 쓸모 있을 듯 하다..