해외 이슈 분석
- 호주 뉴사우스웨일스, 변호사의 부적절한 인공지능 사용 감시 강화 -
이대원
호주 퀸즐랜드주 보건복지부 사무관
사진출처: Alamy
호주에서 한 변호사가 인공지능(AI) 챗봇 챗GPT를 이용해 작성한 문서를 법원에 제출했다가 존재하지 않는 사건을 인용한 것이 적발돼 주 법률 고충 처리위원회에 윤리 강령 위반으로 회부됐다. 법원은 해당 변호사가 '존재하지 않는 판례'를 문서에 포함하면서, 이를 확인하기 위해 상당한 시간을 소비해야 했다고 밝혔다.
재판부는 판결문에서 "변호인은 챗GPT 사이트에 접속해 몇 가지 단어를 입력한 후 관련 문서를 생성했다"며, "법원이 (허위) 인용문을 확인하고 해당 판례를 찾으려고 시도하는 데 상당한 시간을 소비했다"고 지적했다. 적발된 변호사는 법원에 제출한 진술서에서 시간 제약과 건강 문제 때문에 챗GPT를 사용했다고 인정했다.
호주에서 AI로 작성돼 검증되지 않은 문서를 법원에 제출했다가 적발되는 사례는 갈수록 늘고 있다. 지난해에는 멜버른의 한 변호사가 AI로 만든 허위 사건을 이용해 심리를 연기하려고 시도하다가 들통나 징계를 받았다. 전문가들은 변호인 없이 소송에 임하는 일반인 중에도 인공지능의 도움을 받아 소송을 진행하는 경우가 많을 것이라면서, 앞으로 법원이 문서의 진위를 확인하기 위해 더 많은 시간을 쏟아야 할 것이라고 우려했다.
호주 법조계에서 AI가 얼마나 많이 사용되는지는 공식적으로 알려지지 않았다. 하지만 변호사에게 자체 AI 소프트웨어를 제공하는 미디어 회사인 톰슨 로이터가 지난해 호주의 개인 변호사 869명을 대상으로 AI 활용에 관한 설문조사를 실시한 결과 응답자의 약 40%는 AI 사용을 신중하게 실험하고 있는 것으로 확인됐다. 응답자 약 9%는 일상 업무에서 AI를 적극적으로 사용하고 있었으며, 3명 중 1명꼴로 생성형 AI 법률 비서를 원한다고 답했다.
인공지능 사용이 늘어나면서 법원의 대응도 더 보수적으로 바뀌고 있다. 앤드루 벨 뉴사우스웨일스주(NSW) 대법원장은 인공지능의 잠재력과 주정부 사법 체계에서 활용에 대해 우려하면서, "법률적 판단은 (인공지능이 아닌) 인간의 의무"라고 강조했다. 대법원장은 "만약 사법적 판단 기능이 기계에 넘겨진다면, 우리는 민주주의의 핵심 가치를 잃게 될 것"이라면서, 생성형 인공지능 프로그램의 배후에 있는 회사들이 정보를 조작할 가능성에 대해서도 염려한다고 밝혔다.
<사진 1> 앤드류 스콧 벨 (Andrew Scott Bell) 뉴사우스웨일스 주 대법원장
이러한 우려를 반영해 뉴사우스웨일스주(NSW) 대법원은 지난해 말 변호사의 생성형 AI 사용을 제한하는 실무 지침을 발표했다. 이 지침에서 NSW 대법원은 사건 관련자와 증인의 진술서를 작성하거나, 증인의 증거를 미화 또는 강화하기 위해 인공지능을 사용하는 것을 금지했다. 이와 함께 사람이 직접 만든 증거나 증인이 아닌 것을 법원에 제출하는 것은 법 집행의 전체 과정을 훼손하는 것이라고 경고했다.
대법원은 판결문 초안을 편집하거나 교정하기 위해 판사가 인공지능을 사용하는 것도 엄격하게 금지했다. 대법원장은 이에 대해 "법의 지배에 대한 존중은 사법부의 정당성을 대중이 신뢰할 때 부여되는 것"이라면서, "아직은 판사가 자신의 경험과 지혜, 그리고 지식에 기반해 내리는 판결만이 대중의 신뢰를 받을 수 있다고 생각한다"고 말했다.
하지만 대법원장은 법원은 어떤 자료가 인공지능을 이용해 만든 것인지 어떻게 알 수 있느냐는 질문에, 인공지능이 사용되지 않았다는 것을 "확인"하기 위해서는 또 다른 증거 자료가 필요할 수밖에 없다며, 결국 관계자의 정직에 의존할 수밖에 없을 것이라고 인정했다.
하지만 대법원은 법률 전문가와 달리 변호사와 대리인 없이 소송을 진행하는 일반인의 경우 인용된 자료의 존재, 정확성 및 관련성을 법원에 증명할 수 있는 경우 여전히 AI를 사용하여 서면 제출을 준비할 수 있도록 허용했다.
NSW 대법원은 인공지능 사용에는 보수적인 입장을 보였지만, 생성형 인공지능 훈련에 민감한 자료 제공을 금지해 왔던 규정은 철회했다. 그동안 대법원은 아동 증인의 이름이나 기밀 상업 문서와 같은 정보가 대규모 언어 모델을 훈련하는 데 사용될 수 있다면서, 민감한 자료 제공을 금지해 왔다. 하지만 제공된 데이터를 공개하지 않고, 허가되지 않은 다른 절차에 적용하지 않으며, 인공지능 훈련을 위해 사용되지 않는 경우 이러한 문서를 맞춤형 프로그램에 입력할 수 있도록 허용했다. 대법원은 그러한 프로그램에 "충분한 프라이버시 및 기밀 유지 제한"을 요구함으로써 위험을 수용하겠다고 밝혔다.
빅토리아주 법률서비스위원회 역시 변호사의 부적절한 AI 사용을 재판 진행의 주요 위험으로 꼽고, "정확한 법률 정보를 제공하는 것은 AI 프로그램의 의무가 아니라 변호사의 의무"라고 선언했다. 또한 위원회는 인공지능 사용과 관련해 변호사가 주의해야 할 사항을 다음과 같이 정리했다.
1) 의뢰인 기밀 유지: 변호사는 기밀, 민감 또는 특권이 있는 고객 정보를 공개 (예: ChatGPT) 도구에 입력할 경우 기밀 보장을 장담할 수 없음. 변호사가 고객 정보와 함께 상용 AI 도구를 사용하는 경우 정보가 안전하게 유지될 수 있도록 계약 조건을 주의 깊게 검토해야 함.
2) 독립적인 조언 제공: 인공지능 기반 도구는 추론, 이해 또는 조언할 수 없으며, 의뢰인의 요구와 상황에 대한 자체 평가 및 분석을 대체하기 위해 AI 도구에 의존해서는 안 됨.
3) 정직하고 유능하고 성실하게 법률 서비스를 제공: 인공지능은 법률 지식, 경험 또는 전문 지식을 대체할 수 없으며, 현재의 LLM을 기반으로 하는 어떤 도구도 '환각'(즉, 유창하고 설득력 있지만 부정확한 답변)에서 자유로울 수 없음. AI를 사용하여 문서를 준비하는 변호사는 문서에 포함된 정보를 개인적으로 확인할 수 있는 능력과 자격을 갖추어야 하며, 실제로 그 내용이 정확하고 고객인 법원을 오도할 가능성이 없는지 확인해야 함.
4) 공정하고 합리적이며 비례적인 비용 부과: 인공지능을 사용하여 업무를 지원하는 변호사는 자신이 실제로 업무를 수행한 시간만 청구해야 하며, AI가 기존 방법보다 불필요하게 고객의 비용을 증가시키지 않도록 해야 함. (예: 결과를 확인하거나 수정하는 데 추가 시간을 소비하기 때문에).
5) AI 도구의 사용을 위험이 낮고 검증하기 쉬운 작업(예: 정중한 이메일 초안 작성 또는 주장 구성 방법 제안)으로 제한하고, 위험이 높고 독립적으로 검증해야 하는 작업(예: 조언을 다른 언어로 번역, 익숙하지 않은 법률 개념 분석 또는 경영진 의사 결정)에 대한 사용을 금지해야 함. 생성형 AI 도구는 편향될 수 있으며 인간의 심리 또는 관련성이 있을 수 있는 기타 외부 복잡성 요인을 이해할 수 없음.
6) AI 사용에 대해 투명하게 공개하고, 의뢰인이 언제 어떻게 AI를 사용했는지, 그리고 의뢰인이 요청하는 경우 AI 사용이 비용에 어떻게 반영되는지를 적절하게 기록하고 의뢰인(필요하거나 적절한 경우 법원 및 동료 실무자)에게 공개해야 함. |
인공지능 사용과 관련한 법원의 우려와 준비가 본격화하는 가운데 지니 패터슨 멜버른 대학 AI 디지털 윤리센터 소장은 "경험이 적은 변호사는 AI에 의존할 가능성이 높다"며 "변호들이 AI 사용 교육을 받아야 한다"고 조언했다. 전문가들은 "생성 AI는 위험과 장점을 모두 제공한다. 따라서 사법 제도의 무결성을 보장하기 위해 적절한 균형을 맞추는 동시에 법률 실무에 도움이 될 수 있는 도구를 활용할 수 있어야 한다"고 지적했다.
※ 참고자료
● https://www.lsbc.vic.gov.au/news-updates/news/statement-use-artificial-intelligence-australian-legal-practice
● https://www.theguardian.com/law/2025/feb/10/fake-cases-judges-headaches-and-new-limits-australian-courts-grappling-with-lawyers-using-ai-ntwnfb
● https://www.theguardian.com/australia-news/2025/feb/01/australian-lawyer-caught-using-chatgpt-filed-court-documents-referencing-non-existent-cases
본 글은 저자 개인의 의견이며, 한국행정연구원의 공식견해가 아님을 밝힙니다.
|