생성형 AI는 마치 동료처럼 친근한 대화형 인터페이스를 제공하기 때문에, 사용자는 무의식적으로 자신의 사적인 이야기나 회사의 기밀 정보를 털어놓게 되는 경향이 있습니다. 하지만 우리가 입력하는 프롬프트(Prompt)가 어디로 전송되고 어떻게 사용되는지 명확히 알지 못한다면 큰 보안 사고로 이어질 수 있습니다.
데이터 침해는 어떻게 일어나는가?
일반적으로 웹 인터페이스(무료 버전)를 통해 입력한 대화 내용은 AI 모델 기업의 데이터베이스 서버로 전송되어, 다음 세대 AI 모델을 학습시키는 데 '훈련 데이터'로 활용될 수 있습니다. 실제로 유명 전자회사의 엔지니어들이 반도체 소스 코드를 ChatGPT에 입력하여 코드를 수정하려다가 기밀 코드가 외부로 유출된 사례가 유명합니다.
안전하게 AI를 사용하기 위한 3대 수칙
1. 식별 가능한 개인 정보(PII) 절대 입력 금지
이름, 주민등록번호, 연락처, 주소는 물론이고, 고객의 이메일 리스트나 사내 시스템의 접속 IP 대역 등은 챗봇창에 넣지 마세요. 문서를 요약해야 한다면, 워드 프로세서 등에서 먼저 민감한 고유명사를 [A사], [담당자 홍길동] 식으로 마스킹 처리(비식별화)한 후 입력해야 합니다.
2. 상업적 지적 재산권(IP) 보호
아직 논문으로 발표되지 않은 연구 결과, 출시되지 않은 신제품의 스펙, 작성 중인 소프트웨어의 핵심 알고리즘 소스 코드 등은 무료 AI에 업로드해서는 안 됩니다.
3. API 또는 엔터프라이즈(기업용) 플랜 활용
대규모 언어 모델 개발사들의 정책에 따르면, 일반 B2C 소비자가 웹페이지를 통해 질문한 데이터는 학습에 쓰일 수 있으나, **API를 통해 주고받은 데이터는 모델 학습용으로 저장하거나 활용하지 않는 것**이 표준 약관으로 잡혀 있습니다.
AI-ONE은 안전한가요?
우리의 대답은 완벽하게 'Yes'입니다.
AI-ONE(에이아이원) 플랫폼은 사용자의 프롬프트를 전 세계 최상위 언어 모델로 중계할 때, 웹 스크래퍼 방식이 아닌 **공식 엔터프라이즈 API**만을 사용하여 통신합니다. 구조적으로 AI-ONE을 통해 입력된 사용자의 쿼리는 GPT-4o나 Claude의 다음 모델을 학습시키는 데 절대 활용할 수 없도록 원천 차단된 통신망을 지납니다.
또한 AI-ONE의 내부 데이터베이스는 질문과 답변의 메타데이터를 암호화하여 처리하며, 보안이 최우선시되는 아키텍처 위에서 개발되었습니다. 당신의 민감한 교차 검증 데이터를 AI-ONE 안에서 안심하고 다루셔도 좋습니다.