AI는 HR(Human Resources) 분야의 핵심 기술로 자리 잡고 있습니다. 채용, 직원 관리, 성과 분석, 교육 훈련 등 다양한 인사 업무에서 HR AI는 조직의 효율성을 극대화하고 있습니다.
하지만 AI 도입과 활용이 활발해지면서 공정성, 편향성, 프라이버시 침해 등의 문제가 대두되며, 이를 해결하기 위한 AI 규제 논의가 활발히 이루어지고 있습니다. 특히 유럽연합(EU)의 AI 법 시행은 글로벌 AI 정책에 중요한 영향을 미치고 있으며, 미국과 한국 또한 이에 동참하고 있습니다.
이번 글에서는 HR AI 도입과 관련된 글로벌 AI 규제 현안을 살펴보고, HR 실무자들이 AI를 올바르게 활용하기 위한 AI 가이드라인과 대처 방안을 정리하겠습니다.
1. AI 규제 관련 글로벌 현안

먼저, 전 세계적으로 대두되고 있는 AI 규제 현안을 살펴보겠습니다.
❶ 유럽연합(EU): 인공지능 규제법(AI Act)
EU는 2024년 3월, 세계 최초의 포괄적 AI 법인 인공지능 규제법(AI Act)을 시행하며 글로벌 AI 규제의 선두주자가 되었습니다. 이 AI 법안은 AI의 위험도를 네 단계로 구분하고, 이에 따라 차등 규제를 적용하고 있습니다.
전면 금지(unacceptable risk): 개인의 특성이나 행동을 데이터화하여 점수를 매기는 '소셜 스코어링', 실시간 생체 정보 수집 및 식별 시스템 등 개인의 기본권을 침해할 가능성이 있는 AI 기술은 전면 금지됩니다.
고위험(high risk): 의료, 교육, 고용, 금융 핵심 공공 서비스에서 사용하는 AI는 엄격한 관리 체계와 인간의 관리 감독이 필수화됩니다.
제한된 위험(limited risk): 콘텐츠 생성 AI는 투명성을 보장해야 하고, 생성된 결과물이 AI에 의해 제작되었음을 명시해야 합니다.
저위험(minimal risk): 스팸 필터처럼 낮은 위험도의 서비스나 혁신, 비즈니스 운영과 관련하여 무해하다고 판단되는 경우 최소한의 규제만 적용합니다.
EU의 AI 법은 AI 기술 활용 시 개인의 권리 보호와 기업의 투명성을 강화하고, 개발과 혁신을 촉진하려는 균형 잡힌 접근 방식을 택하고 있습니다. 신뢰할 수 있는 AI 개발을 지원하기 위해 유럽 AI 사무소를 설립하여 개발자와 기업에 자문과 지원을 제공합니다. 한편, 위반 기업에 전 세계 매출의 최대 7%에 달하는 벌금을 부과할 수 있어 법의 강제성을 갖추고 있습니다.
❷ 미국 캘리포니아주: AI 투명성 법안
캘리포니아는 AI 기술의 책임성과 투명성을 강화하기 위해 다양한 AI 법안을 도입하고 있습니다.
2026년부터 시행되는 법에 따라, AI 시스템 개발자는 훈련 데이터의 출처, 구성, 개인정보 포함 여부를 투명하게 공개해야 합니다. 또한, 성적 이미지나 동영상을 생성하는 AI 규제 법안이 통과되어, 딥페이크로 인해 개인이 피해를 입지 않도록 보호하고 있습니다. 소셜 미디어 플랫폼은 이에 대한 신고 채널을 마련하고, 문제가 되는 콘텐츠를 신속히 삭제해야 하는 의무가 생겼습니다. 이 외에도 대규모 AI 시스템 개발자는 탐지 툴과 워터마크 표시 기능을 제공해 사용자가 AI로 생성한 콘텐츠를 쉽게 구별할 수 있게 만들어야 합니다.
이러한 법안들은 AI 데이터의 학습, 사용 등 전 과정에서 발생하는 윤리적 문제에 대처하기 위해 만들어졌고, 다른 주와 국가에도 영향을 미칠 것으로 보입니다.
❸ 한국: AI 기본법
한국은 연내 AI 법에 해당하는 AI 기본법을 본회의에서 통과시킬 예정입니다. 해당 법안에서는 고영향 인공지능(생명, 안전, 기본권에 영향을 미칠 수 있는 인공지능시스템)과 생성형 인공지능(입력한 데이터의 구조와 특성을 모방해 다양한 결과물을 생성하는 인공지능시스템) 등 AI와 관련된 용어를 정의하고, 이들의 투명성과 안전성을 보장하기 위한 의무를 기술했습니다.
투명성 확보 의무(제31조): 고영향 및 생성형 AI를 활용한 제품과 서비스는 사용자에게 이를 명확히 고지해야 하며, 결과물이 AI에 의해 생성되었음을 표기해야 합니다.
안전성 확보 의무(제32조): 인공지능사업자는 기준 이상의 안전성을 확보하기 위해 인공지능 수명주기 전반에 걸쳐 위험을 식별하고, 평가하며 완화 조치를 취해야 하고, 인공지능 관련 안전사고를 모니터링 및 대응할 수 있는 위험관리체계를 구축해야 합니다.
인공지능 기본계획의 수립(제6조): 과학기술정보통신부장관은 3년마다 AI 기본계획을 대통령 직속 국가인공지능위원회의 심의·의결을 거쳐 수립·시행해야 합니다.
이 밖에도 AI 기본법은 여러 법 조항을 통해 기술 혁신을 지원하고, 규제의 균형을 맞춰 글로벌 AI 규제 흐름에 발맞추고 있습니다. 이로써 AI 기본법은 사업자가 윤리적이고 책임감 있게 AI 기술을 활용할 수 있도록 유도하고 있습니다.
👉 ‘동아비즈니스포럼 2024 AI 열풍을 넘어: 탁월한 조직을 위한 새로운 패러다임’ 현장 스케치
2. HR 분야의 AI 활용과 이슈

앞서 글로벌 AI 규제 현안 3가지를 살펴보았습니다. 대부분의 규제가 AI 학습과 활용 과정에서의 투명성, 안전성을 보장하고, 개발과 혁신을 촉진하는 균형 있는 방향성을 보여주고 있습니다. 그렇다면 HR AI 활용에 있어서 현황과 이슈는 무엇이 있을까요? 간단하게 알아보겠습니다.
HR AI 활용 현황
HR AI는 HR의 다양한 세부 분야에서 업무 효율성을 높이고, 의사결정을 돕는 데 효과적으로 활용되고 있습니다.
채용 분야: 채용 분야에서는 AI 기반 ATS(Applicant Tracking System: 채용 관리 솔루션), 이력서 분석 기술 등으로 적합한 후보자를 추천하고, 채용 절차를 자동화하고 있습니다. 이제는 대세가 된 AI 면접을 포함하여 채용 과정에서 드는 비용과 인력을 줄이는 데 큰 역할을 하고 있습니다.
인사 관리: 피플 애널리틱스를 통해 직원 데이터를 분석하고, 인재 유지 및 생산성 개선에 기여하고 있습니다. 직원들의 입직, 배치, 퇴직을 개인별 특성에 맞게 체계적으로 관리할 수 있게 돕습니다. 인사이동과 인재추천은 물론이고, 퇴직 관리에서도 향후 퇴사가 예상되는 임직원을 파악하고, 기타 인센티브를 제공하여 이탈을 사전에 방지하는 데에도 활용되고 있습니다.
성과 관리: 성과관리 분야에서는 다른 HR AI에 비해 다소 더딘 활용도를 보입니다. 성과 데이터는 경제적인 면과 가장 밀접하게 연결되어 객관성과 신뢰성에 대한 문제가 가장 큰 벽입니다. 그럼에도 AI 기술은 다양한 성과 데이터를 찾아 종합적으로 요약하거나 직원의 성과를 통해 강점과 약점을 파악하는 데 적극적으로 쓰이고 있습니다.
교육 훈련: HR AI는 교육 훈련 분야에서 꾸준히 도입되고, 활용됩니다. AI 기반 스킬 로드맵을 통해 맞춤형 교육 콘텐츠를 제공하고, 직원의 역량을 강화합니다. 학습자의 직무나 부서를 바탕으로 추가 학습 콘텐츠를 추천하고, 이들의 교육 참여도와 만족도를 높이는 데 집중하고 있습니다.
HR AI 주요 이슈
다만, 이처럼 다양한 업무에 HR AI 활용이 증가함에 따라 여러 문제도 함께 대두되고 있습니다.
채용 절차의 공정성: AI 기반 채용 시스템은 과거 데이터를 학습하고, 이를 기반으로 평가합니다. 때문에 공정하지 않은 과거 데이터가 학습된 경우, 특정 집단(성별, 연령, 인종)에 대한 차별적인 결과를 낳을 가능성이 있습니다.
피플 애널리틱스의 편향성: 과거 데이터가 반드시 미래의 가능성을 정확히 대변하진 못합니다. 그래서 AI 예측으로 잘못된 의사결정을 유발할 수 있습니다.
노동 대체와 소외: 단순 업무가 자동화되면서 AI를 활용한 일자리만 살아남고, 일부 계층이 배제될 위험이 있습니다. 실제로 한국은행의 연구결과에 따르면, 우리나라 전체 일자리 중 12%(약 341만 개)는 AI 기술에 의해 대체될 가능성이 높다고 밝혀졌습니다.
프라이버시: AI로 수집된 데이터가 사용자 동의 없이 다른 목적으로 사용되거나 제3자에게 판매되는 경우, 프라이버시 침해로 이어질 수 있습니다. 또한, AI 시스템이 보안 취약점을 가질 경우, 데이터 유출로 인해 개인 정보가 노출될 수 있습니다.
👉 피플 애널리틱스의 5가지 장점과 단계별 도입 가이드
3. HR 실무자들의 대처 방안

지금까지 글로벌 AI 규제 3가지와 HR AI 현황과 주요 이슈들을 살펴보았습니다. 다음은 HR 담당자가 나아가야 할 방향을 짚어볼 차례입니다.
❶ AI 가이드라인 마련
HR 실무자들은 AI 활용의 윤리적 문제 등을 예방하기 위해 명확한 AI 가이드라인을 수립해야 합니다. 특히, HR 업무에서 HR AI를 활용할 때 지켜야 할 윤리적 기준을 AI 가이드라인으로 문서화하고, 지속적으로 개선합니다. 이때, HR 업무에서 AI를 다루는 관계자가 지켜야 할 사항과 절차를 반드시 명시합니다.
또한, AI 활용 시 수집, 저장, 처리되는 개인정보에 대하여 보호 대책을 마련하고, 외부의 규제를 주기적으로 모니터링하여 이를 AI 가이드라인에 업데이트합니다. AI 기본법이 연내 시행될 예정이므로, 법적 문제가 발생하지 않도록 AI 가이드라인을 수립하는 것이 중요합니다.
❷ 책임과 투명성 강화
AI 활용 과정에서 발생하는 결과에 대해 책임을 다하고, 투명성을 확보해야 합니다. AI의 판단에 의존하기보다 이를 주기적으로 검토하고, 잘못된 결과는 수정할 수 있는 체계를 마련합니다. 이때, 사람이 직접 AI의 판단이 제대로 된 결과를 도출하고 있는지 점검하는 과정이 필요합니다. 또한, HR 담당자는 AI의 작동 원리를 이해하고, 적절히 활용할 수 있도록 교육 방안을 마련합니다.
❸ 인간 중심의 판단 보완
AI가 HR 업무에서 중요한 역할을 하더라도, 인간 중심의 판단과 소통은 여전히 필수적입니다. AI가 정성적 맥락까지 완벽하게 이해할 수는 없으므로, 직원의 의견과 정성적 요소를 정확히 이해하기 위해 구성원과 적극적으로 소통합니다. 또한, AI의 데이터는 100% 신뢰할 수 있는 결과가 아니기 때문에 AI 데이터를 참고하되, 인간 중심의 커뮤니케이션과 의사결정 구조는 최대한으로 유지합니다.
이번 글에서는 글로벌 AI 규제 현안과 HR AI의 현황, 이슈, 대처 방안까지 살펴보았습니다.
AI 기술은 빠르게 변화하고 있으며, 이와 함께 AI 법안도 빠르게 만들어지고 있습니다. HR AI 활용에서도 이러한 변화를 주시할 필요가 있습니다. HR 실무자들은 AI 가이드라인을 통해 윤리적이고 책임감 있는 AI 활용 방안을 마련하고, 인간 중심의 커뮤니케이션 구조를 보호해야 합니다. AI라는 도구를 적절한 규정 내에서 잘 활용하여 HR 업무의 공정성과 효율성을 높여 보시길 바랍니다.