거대한 기술의 파도, 챗GPT
거대한 기술의 파도, 챗GPT
  • 신재원 기자
  • 승인 2023.04.03 12:47
  • 댓글 0
이 기사를 공유합니다

<일러스트레이션=윤예원 기자>

 

<일러스트레이션=윤예원 기자>

 

"챗GPT가 개개인의 수준에 맞게 써준대"
"대박! 그럼 우리 이제 
힘들게 과제 안 해도 되는거야?"

 

지난해 11월, 국내에 첫 공개된 챗GPT는 획기적인 성능으로 출시 일주일만 사용자 100만 명을 넘기는 등 큰 화제를 모았다. 그에 따라 학생들 사이에서도 챗GPT로 과제를 완성할 수 있다는 점이 호기심을 불러일으켰다. 그런데 챗GPT, 괜찮을까?

 

챗GPT로 과제를 해도 되나요?


생성형 AI인 중 하나인 챗GPT는 OpenAI(오픈AI)가 개발한 대화 전문 인공지능 챗봇으로 채팅의 줄임말인 '챗'과, Generated Pre-trained Transformer의 앞 글자를 딴 'GPT'를 합친 이름이다. 이러한 생성형 AI는 기존 AI와 달리 질문에 대한 단순 답변은 물론 △논문 △과제 작성 △번역 △작사·작곡 △코딩 작업 등 광범위한 분야의 업무 수행이 가능하다. 


특히 챗GPT는 사용자가 대화창에 텍스트를 입력하면 그에 맞춰 챗봇이 답하는 등 함께 대화를 나눌 수 있는 서비스가 제공된다. 하지만 이를 학생들이 과제에 활용하기 시작하며 챗GPT에 대한 문제가 수면 위로 떠올랐다. 


실제로 챗GPT는 인간과 비슷한 대화를 생성해 내기 위해 사람의 피드백을 활용한 강화학습을 사용한다. 그에 따라 △지식정보 전달 △창의적인 답변 △문제의 해결방안 제시 등 폭넓은 주제의 대화를 이끌어 나갈 수 있어, 인간이 작성한 것인지 챗GPT가 작성한 것인지 구별하기 어렵다.


그렇기에 현재 대학가를 비롯한 교육계에서 챗GPT에 대한 의견이 분분한 상황이다. 지난달 28일, 연세대 교양과목 작문 수업에서 담당 교수가 챗GPT 대필이 의심된다는 이유로 수강생의 작문 과제를 0점 처리했다. 학교 관계자는 "소설을 읽지 않고 챗GPT를 시켜 줄거리를 요약하고 감상평을 작성한 것으로 보였다"며 "전체 2단락 중 1단락이 챗GPT 답변 내용과 일치하는 등 표절 정황이 명백해 0점 처리했다"고 밝혔다. (연세대 '챗GPT 대필 의심' 과제 0점 처리... "작문기로 전환"(동아일보, 2022.03.29.) 참고)


이에 대해 우리 대학 하승태(미디어커뮤니케이션학) 교수는 "챗GPT의 도입과 적용에 대한 합의가 이루어지지 않은 현 상황에서 섣부른 허용은 심각한 문제를 초래할 수 있다"고 꼬집었다. 이어 그는 "먼저, 챗GPT는 편향된 정보를 사실로 받아들이게 할 수 있어, 정보의 편향성이 심화되고 고착화될 위험이 있다. 둘째, 챗GPT에 의존함으로써 과제나 시험이 의도한 개념이나 문제 해결 전략에 대한 이해 없이 학습을 마무리하게 된다. 셋째, 출처가 분명하지 않은 챗GPT의 결과물은 평가의 공정성을 해치고 창의적 노력을 독립적으로 수행한 학생들의 가치를 떨어트리는 문제가 발생한다"고 설명했다.


교육의 주체인 학생들은 챗GPT에 대해 어떻게 생각할까. 지난달 20일, 아르바이트 전문 포털 알바천국이 대학생 544명을 대상으로 진행한 인공지능(AI) 관련 설문조사 결과에 의하면 응답자 중 416명(76.5%)은 챗GPT와 같은 AI를 학업·취업에 활용하는 사례가 확산되는 것에 대해 '긍정적'이라고 답했다. 응답자 중 218명(52.4%)은 '학업·취업에 소요되는 물리적인 시간을 줄일 수 있다'는 점을 챗GPT의 긍정적 효과로 꼽았으며, 일상에서 학업이나 과제, 수업과 관련된 정보 검색 등의 용도로 챗GPT를 활용 중이라는 응답은 211명(38.8%)으로 조사됐다. 


그러나 전체 응답자 가운데 128명(23.5%)는 챗GPT의 확산을 부정적으로 평가했다. AI를 활용한 각종 부정행위로 공정한 평가가 어려워질 것이라는 이유에서다. 부경대에 재학 중인 A 씨는 "챗GPT를 심심이 정도로 생각해 여러 대화도 나누고, 과제용 글을 쓰게도 해봤는데 생각보다 완성도 있어 놀랐다"며 "다른 학생들이 챗GPT를 활용해 완성된 글이나 과제물을 자기 생각인 것처럼 충분히 속일 수 있을 것 같아 문제가 될 것 같다"고 우려했다.


또한 우리 대학 B(관광경영학 4) 학생은 "대학 내에서 학생들이 챗 GPT를 남용, 오용하지 않도록 적절한 사용범위를 사전에 정해 공지해야 한다"며 "사전 공지에만 그치지 않고 과제와 시험의 방식, 점검 방식 등에 대한 교육책임자들의 논의가 보다 많이 필요할 것 같다"고 의견을 전했다. 이처럼 학생들은 챗GPT의 긍정적인 부분으로 학업에 소요되는 물리적인 시간을 줄일 수 있는 점을 꼽았지만, 동시에 각종 부정행위로 공정한 평가가 어려워질 것을 우려하고 있었다.


그렇다면 대학가는 챗GPT 활용에 대한 규정이 있을까. 지난 2월 국민대는 국내 대학 최초로 챗GPT를 비롯한 인공지능 활용 윤리강령을 선포했다. 뒤이어 연세대에선 챗GPT 등 인공지능 활용 가이드라인을 만들어 교수진에 배포했다. 해당 가이드라인에 따르면 학생들에게 각 교수가 챗GPT 이용 가능 여부를 학생들에게 명확히 안내할 것을 당부했으며, 과제물 이외에 발표 평가나, 퀴즈 실시 등 다양한 평가 방식을 도입하는 방안도 적극 고려해달라 제안하고 있다.


우리 대학의 경우, 현재 챗GPT에 대한 규정은 없다. 학사관리과 관계자는 "우리 대학에서도 챗GPT 문제에 대해 예의주시하고 있다"며 "다만 부정행위 판단에 대한 기준 등이 모호하고 사회적으로도 해석의 차이로 인한 논쟁이 있어 관련 부서에서 대책 마련을 위해 △교육부 등의 정책적 방향 △여러 이슈 △부작용 등을 확인 중"이라고 답했다. 또한 "△관련 규정 △가이드라인 △타 대학 사례처럼 윤리 강령 선포 등 다방면의 대책을 논의 중이나 충분한 검토를 거쳐 신중히 결정돼야 할 사항이라 사료된다"고 설명했다.


이처럼 우리 대학은 명확한 규정이 존재하지 않기 때문에 학생들은 담당 교수가 개별적으로 내리는 공지를 따라야 한다. 그렇다면 과제나 시험을 내주는 교수는 어떻게 생각할까. 우리 대학 하승태(미디어커뮤니케이션학) 교수는 "챗GPT는 과목과 주제에 따라 해당 강좌가 의도하는 수강생의 능력 개발을 저해할 소지가 매우 크다"며 "독립적이고 창의적인 사고와 문제 해결 능력을 요구하는 수업에서 챗GPT의 사용은 수업의 근본적 목적과 배치된다"고 설명했다.


우리 대학 김혜정(기초교양대) 교수는 "과제나 논문을 작성할 때 직접 연구 자료를 찾고 정리하는 작업을 검색 기술을 통해 수행하는데, 이제는 챗GPT 기술을 통해 검색의 수고로움을 덜 수 있게 됐다"고 말했다. 이어 "챗GPT를 무조건 경계할 것이 아니라 오히려 적극 활용해 일상화될 챗GPT 기술을 잘 알고 쓸 수 있도록 AI 리터러시를 계발하고, 챗GPT를 어느 단계에서 활용했는지 명시할 것을 주문해 AI 기술 활용 능력뿐만 아니라 연구 윤리를 체득할 수 있을 것"이라며 "챗GPT를 활용해 과제 하는 것을 무조건 막을 필요는 없다고 생각한다"고 답했다.


챗GPT, 어떻게 써야 할까


'인공지능관련 규범 수립의 국내외 현황과 과제'(법조협회, 2023) 논문에 따르면 인공지능에 의한 생성물의 제출을 허용 내지 장려하되 그것이 인공지능에 의해 생성된 것임을 명시하도록 하고 과제와 연구에 대한 평가는 기존 자료의 취합을 뛰어넘은 새로운 가치 창출이나 대안의 제시에 맞춰져야 할 것으로 보인다고 설명했다.


국제인공지능&윤리센터 전창배 이사장은 "챗GPT와 관련된 문제들은 모든 대학에서 피해 갈 수 없다"며 "대학에서 AI 도구 활용에 있어서 학생들이 어떤 가이드라인을 따라야 할지, 교수들은 어떻게 학생들에게 안내해야 하는지 명확한 기준을 밝히는 것이 좋다"고 말했다. 덧붙여 "교수나 학교 측에서 일방적으로 발표하는 것보다 교육의 주체인 학생들과 논의해, 학생들이 수긍할 수 있는 방향으로 함께 매뉴얼을 만드는 것이 중요하다"며 의견을 전했다.


이어 디지털융합교육원 김윤정 연구원은 "윤리강령이나 관련 지침 이전에 철저한 인공지능과 표절 예방에 대한 교육이 선행돼야 한다"며 "대학생 세대는 평생 인공지능을 활용할 가능성이 높은데 이것을 어떻게 활용할 수 있는지 교육하고 개방하는 대학들이 많았으면 좋겠다"는 바람을 전했다.


끝으로 전창배 이사장은 "현재 챗GPT가 내놓는 결과물이나 정보가 모두 사실인 것은 아니다"며 "오류가 많고 특히 챗GPT는 본인의 답변에 출처를 밝히지 않기 때문에 사실인지 거짓인지 알 수 없다. 사실이 아닌 내용을 사실인 것처럼 포장해 얘기하는 환각 사례도 굉장히 많다"며 "모든 내용을 무조건 믿지 말고 항상 사실 확인을 해야 한다"고 경고했다.

 

 신재원 기자
 2208026@donga.ac.kr

 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

  • 부산광역시 사하구 낙동대로550번길 37 (하단동) 동아대학교 교수회관 지하 1층
  • 대표전화 : 051)200-6230~1
  • 팩스 : 051)200-6235
  • 청소년보호책임자 : 권영성
  • 명칭 : 동아대학교 다우미디어센터
  • 제호 : 동아대학교 다우미디어센터
  • 등록번호 : 대전 가 00000
  • 등록일 : 2017-04-05
  • 발행일 : 2017-05-01
  • 발행인 : 이해우
  • 편집인 : 권영성
  • 동아대학교 다우미디어센터 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 동아대학교 다우미디어센터
ND소프트