한국일보

AI와 수다 떨다 개인정보 털린다… 제공 삼가야 할 정보들

2026-05-11 (월) 12:00:00
크게 작게

▶ 이름·주소·SSN·운전면허
▶ 직장 및 고용 관련 정보
▶ 구체적인 부채·지출 내역
▶ 세금 신고 관련 서류

AI와 수다 떨다 개인정보 털린다… 제공 삼가야 할 정보들

AI 플랫폼에 금융이나 재정 관련 조언을 구하는 사용자가 늘고 있다. AI플랫폼에 민감한 정보를 제공할 경우 개인정보 노출에 따른 피해를 초래할 수 있기 때문에 각별한 주의가 필요하다. [로이터]

‘인공지능’(AI) 플랫폼에 금융이나 재정 관련 조언을 구하는 사용자가 많다. 하지만 AI플랫폼에 민감한 정보를 제공할 경우 개인정보 노출에 따른 피해를 초래할 수 있다. 그럼에도 불구하고 예산 관리, 부채 상환 계획, 은퇴 전략, 투자 선택 등 재정 문제를 상담하기 위해 챗봇을 활용하는 사례가 급증하고 있다. 대부분 경우 AI를 통해 유용한 정보를 어려움 없이 얻을 수 있다. 그러나 구체적인 답변을 얻기 위해 일부 사용자들이 과도한 정보를 제공하고 있는데, 민감한 개인정보가 잘못된 손에 들어갈 경우 은행 계좌 자금 유출이나 신원 도용으로 이어질 수 있기 때문에 각별한 주의가 필요하다.

■ 정보 유출 위험 알면서도 제공

네트워크 장비 제조사 ‘시스코’(Cisco)의 조사에 따르면 전 세계 AI 이용자의 약 29%가 금융 정보와 건강 정보 등 민감한 개인 정보를 챗봇에 입력한 것으로 나타났다. 이는 응답자의 약 84%가 개인 데이터 공개 가능성에 대해 우려하고 있음에도 불구하고, 약 3분의 1에 해당하는 이용자들이 민감한 정보를 챗봇과 거리낌 없이 나누고 있다는 조사결과다.


또, 스탠퍼드대 연구진이 아마존, 앤스로픽, 구글, 메타, 마이크로소프트, 오픈AI 등 주요 6개 AI 기업의 개인정보 보호정책을 분석한 결과, 이들 모두 채팅 데이터를 모델 학습에 활용하고 있으며 일부는 이를 무기한 보관하는 것으로도 확인됐다. 연구진은 “챗봇 설계상의 문제이든 관리 소홀 때문이든, 이용자 데이터가 악용될 가능성이 있다”고 경고했다.

■ MZ 70%이상 ‘AI 금융 조언’

금융 분야에서 AI 활용이 늘고 있다. TD 뱅크에 따르면 1년 전만 해도 미국인의 약 10%만 재정 관리를 위해 AI를 사용한다고 답했으나, 최근 조사에서는 이 비율이 무려 약 55%로 급증했다. 특히 젊은 층의 사용 비율이 훨씬 높아, Z세대의 약 77%, 밀레니엄 세대의 약 72%가 금융 조언을 위해 AI를 이용하고 있는 것으로 나타났다.

기술 전문가들은 AI를 일반적인 금융 정보 확인 용도로 활용하는 것은 적절하다고 조언한다. 예를 들어 401(k)나 로스 IRA의 납입 한도를 확인하거나, 다양한 부채 상환 방식의 장단점을 묻는 데는 유용하다. 또, 매주 약 200달러 예산으로 4인 가족 식단을 구성하는 등 일상적 가계부 운영에도 활용할 수 있다.

■이름·주소·SSN·운전면허번호

AI에 이름, 주소, ‘사회보장번호’(SSN), 운전면허번호 등 개인 정보를 절대 공유해서는 안 된다. 로그인 시 사용자 이름이나 이메일이 필요할 수는 있지만, 이러한 정보 역시 채팅 내용에는 포함시키지 않는 것이 바람직하다. AI를 개인적으로 사용할 때는 이 같은 주의 사항을 어느정도 지킬 수 있다. 그러나 다른 상황에서 자신도 모르게 개인 정보를 제공하게 되는 경우가 있어 주의가 필요하다.

예를 들어 온라인으로 구매한 가구를 찾으러 갔을 때 매장 직원이 운전면허증을 스캔해 시스템에 저장하려고 할 수 있다. 고객이 어떤 물품을 구매했고 수령했는지 기록하기 위해 필요하다는 설명이다. 이 같은 경우 신원 확인을 위해 육안으로 면허증을 확인하도록 하는 것은 괜찮다. 하지만, 업체 시스템의 보안 수준을 알 수 없었기 때문에 저장 목적의 스캔은 거부하는 것이 안전하다.


■ 직장 관련 정보

시스코 조사에 따르면 응답자의 약 37%가 AI 도구에 직장 관련 정보를 입력한 경험이 있는 것으로 나타났다. 그러나 고용 정보는 피싱 사기에서 유용하게 활용될 수 있다. 사기범이 근무지를 알게 되면 크레딧 카드나 대출을 본인 명의로 신청하는 데 활용할 수 있다. W-2 양식 업데이트를 요구하는 허위 이메일을 보내 링크 클릭을 유도할 수도 있다.

이처럼 매우 구체적인 고용 정보를 제시한 사기는 실제 상황처럼 보여 아차 하는 순간에 피해로 이어지기 쉽다. 연봉 협상을 앞두고 AI 챗봇에게 조언을 구하는 것은 좋지만 자신이 다니는 직장 정보나 연봉 수준까지 알릴 필요는 없다. 개인을 특정할 수 있는 정보 대신 일반적인 질문 형태로 활용하는 것이 바람직하다.

■ 구체적인 부채 정보

금융 조언을 위해 챗봇을 이용하더라도, 특정 금융사 이름과 구체적인 부채 금액을 공유하는 것은 위험하다. 예를 들어 “세금 환급금 3,450달러를 받을 예정인데 어떤 부채 순서로 빚을 갚아야 하나요?”라고 물으면서 “OO은행에 1만4,200달러, OO은행에 8,700달러의 부채가 있다”와 같이 구체적인 은행명까지 입력하는 방식은 피해야 한다.

이미 대규모 데이터 유출 사고로 인해 방대한 개인 정보가 외부에 노출된 상황이다. 사기범들은 이러한 정보를 결합해 매우 정교한 사기 시나리오를 만들 수 있다. 이는 현재 사용 중인 금융기관이 연락하는 것처럼 보이게 만들어 실제와 구별이 어려운 사기 시도로 이어지는 결과를 초래한다.

챗봇과의 대화 기록이 유출되어 사기 조직이 이를 특정 개인과 연결할 수 있게 되면, 실제 대출 기관을 사칭하기에 충분한 정보가 노출되는 결과로 이어지는 셈이다. 따라서 금융 관련 질문을 할 때는 구체적인 금액 대신 대략적인 숫자를 사용하는 것이 안전하다.

■ 구체적인 지출 내역

AI에게 예산을 요청할 때 지난 지출 내역을 그대로 입력하는 것도 피해야 한다. 예를 들어 “지난달 약국에서 45달러12센트, 회식 및 저녁에 65달러23센트를 썼다”처럼 실제 거래 금액을 그대로 적는 방식은 위험하다. 구체적인 개인 예산표를 그대로 업로드하는 것도 비슷한 위험을 발생시킨다. 범죄자가 은행 직원을 사칭하며 실제 결제 금액을 정확히 언급하면, 피해자는 이를 의심 없이 진짜라고 믿게 될 가능성이 크다. AI에 정확한 수치를 입력할수록 데이터의 익명성이 사라지고 개인 식별 위험이 커진다.

■ 기타 금융 서류

금융 관련 문제는 복잡하고 어렵다 보니, 시간과 비용을 아끼기 위해 AI의 도움을 받고 싶은 유혹에 빠지기 쉽다. 예를 들어 세금 신고에서 공제 항목을 찾기 위해 세금 신고서를 AI에 업로드하려는 경우가 있을 수 있다. 이름이나 사회보장번호를 가린다면 안전하다고 생각할 수도 있지만, 세금 신고서에는 여전히 개인을 식별할 수 있는 다양한 정보가 포함돼 있다. 또는 금융 자문 비용을 아끼기 위해 투자 내역서를 업로드하고 AI에게 포트폴리오 분석을 요청하는 경우도 있다. 그러나 이는 낯선 사람에게 동일한 정보를 그대로 건네는 것과 다르지 않다.

카테고리 최신기사

많이 본 기사