티스토리 뷰

직원의 AI 접근성은 +50% 늘었지만, 정작 줄어든 것은 "사람이 직접 숙고하는 시간"이다. AX의 성공은 더 좋은 모델이 아니라 책임 있는 의사결정 구조와 실습·공유 기반의 문화가 결정한다.
왜 AI가 늘어도 AX는 어려운가
한국 딜로이트 그룹의 '기업의 AI 활용현황 2026 보고서'에 따르면 직원 AI 접근성은 50% 확대됐다. 회의록은 수 분 만에 요약되고, 보고서 초안도 즉시 나온다. 문제는 그 다음이다. 그럴듯한 결과물에 익숙해질수록 검증과 숙고가 뒤로 밀리고, 그렇게 굳어진 프로세스가 표준이 되어버리면 조직은 매일 틀린 줄도 모르는 답을 결재하게 된다.
LLM의 한계도 같은 위험을 키운다. 연구논문 Artificial Hivemind는 유사한 출력에 반복 노출될 경우 사고 자체가 동질화될 수 있다고 경고한다. 마이크로소프트 리서치(2025)도 자동화의 역설을 인용하며 "책임 설계가 없으면 조직은 결국 통제 강화로 회귀한다"고 짚었다.
처방 1. 책임 있는 의사결정 조직 재설계
리더의 일은 AI 답변을 받아쓰는 게 아니라 더 잘 판단하기 위해 깊이 숙고하는 일이다. 정답이 없는 기획·전략에서는 "결정을 검증하는 과정" 자체가 경쟁력이다. 핵심은 'AI 네이티브화' — AI를 전제로 업무를 설계하되, 그 안에서 사람이 해야 할 의사결정 영역을 분명히 구분하고 표준화된 검증·책임 구조를 함께 운영하는 것이다.
처방 2. 문화 확산 — 퍼널 4단계
AX의 본질은 기술이 아니라 문화다. 강의 한 번으로는 정착하지 않는다. 마케팅의 퍼널 효과를 그대로 적용할 수 있다.
인지 — AI 사용 불안을 줄이고 "이렇게 쓰면 된다"는 예시를 공유한다.
참여 — AI CoE(Center of Excellence)가 실무 문서를 함께 다듬어 주는 마중물이 된다.
적용 — 개선된 표준 프롬프트·템플릿으로 전사 품질을 상향 표준화한다.
공유 — 레시피 공유전·챌린지로 성공 경험의 장을 주기적으로 마련한다.
페인 포인트가 발견되고 작은 성과가 쌓이면 신뢰가 만들어지고, 그 신뢰가 다음 확산의 연료가 된다.
정부도 같은 방향이다
행정안전부는 'AI 거점리더·챔피언' 인재 양성으로 현장 거점을 세우고 있다. 재정경제부는 89개 공공기관이 참여하는 분과별 AI 활용 협의체를 가동했다. 인공지능전략위원회는 행동계획(26~28)을 통해 부처별 이행 과제를 제시했다.
마무리
AX는 더 비싼 모델을 쓰는 일이 아니다. 사람이 결정해야 할 자리를 지키고, 그 결정을 검증할 수 있는 구조와 문화를 만드는 일이다. 검증 없이 표준이 된 프로세스가 우리 회의실에도 한두 개쯤 있다면, 지금이 시작할 가장 좋은 때다.









- Total