사이버 범죄의 실태와 해법을 모색하는 연중기획이다.
인공지능의 대명사격이 된 '챗GPT'는 AI 기술의 오남용을 막기 위해 범죄와 관련된 질문엔 답하지 않는다고 밝히고 있는데, 하지만 질문 내용을 조금만 바꿔도 범죄에 악용될 수 있는 우려가 있는 것으로 확인됐다.
2022년 말 출시된 챗GPT 3.5 버전은 윤리에 어긋나는 질문에는 답하지 않게 학습돼 있다고 알려져있다.
홈페이지에 올린 윤리 헌장에서도 "안전을 구축하고 오남용에 따른 피해를 줄이겠다"고 약속하고 있다.
폭탄 제조법을 물어봤는데, 돌아온 답변은 도와줄 수 없다였다.
이번엔 질문의 내용을 바꿔봤다.
관련 정보를 알려준다.
가장 최근에 출시된 챗GPT 4.0에서도 상황은 크게 다르지 않다.
질문 방식을 바꿔 마약 제조법 등을 물었더니, 답을 내놓다.
악성코드를 만들어달라는 요청에도 답합니다.
문제는 해커들이 불법으로 정보를 사고 파는 '다크웹'에서 우회 방법이 거래된다는 것이다.
범죄에 악용될 우려가 있다는 목소리가 나오는 이유다.
갈수록 똑똑해지고 일상화되는 AI는 범죄에 악용되지 않게 하기 위한 적극적인 조치가 필요하다고 전문가들은 지적했다.