오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"
(지디넷코리아=김미정 기자)오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다.
이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다.
AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다.
이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다.
법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다.
법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다.
Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까.
윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다.
결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다.
Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라.
윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다.
정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다.
정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다.
Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가.
강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다.
딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다.
Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지.
강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다.
AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다.
Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가.
강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다.
정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다.
다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다.
Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다.
윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다.
저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다.
지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다.
Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다.
윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다.
이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다.
Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가.
강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다.
문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다.
Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가.
강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.
김미정 기자(notyetkim@zdnet.co.kr)
Copyright © 지디넷코리아. 무단전재 및 재배포 금지.
- "국내 첫 AI팀 꾸려"…태평양이 내다본 한국 AI법 방향은?
- [기고] AI 시대의 현명한 개인정보 활용 방법
- MIT 박사·삼성 최연소 임원이 AI 기업 '투플랫폼' 세운 이유는
- 新무기 장착한 세일즈포스, MS 제치고 기업용 AI 시장 '왕좌' 차지할까
- "美 대선에 AI 운명 달렸다"…트럼프·해리스 누가 유리할까
- 쿠팡, 다시 흑자 전환…매출은 분기 최대 달성
- SKT, 3분기 영업익 5333억원...전년비 7.1%↑
- SK하이닉스 "16단 HBM3E, 검증 단계서 12단과 '동등 수율' 확보"
- 배달앱 상생협의체, '수수료 5% 상한제' 입장차 뚜렷
- 엔비디아, 애플 제치고 시총 1위 기업 등극