Dark Light

AI 시대의 UX 리서치 모습을 소개하고 전망하는 강의 제안을 받았습니다. 어떤 것이 그대로이고, 어떤 것은 달라질지 명확한 생각이 정리되지 않아 AI 관련한 책을 몇 가지 읽고 있습니다. 주변에서 당장 관찰하는 것은 AI 시대에 생성형 AI를 업무에 써야만 할 것 같은 FOMO, 도구의 함정에 빠지는 모습입니다. 업무에 ChatGPT로 대표되는 AI 도구를 활용해야만 할 것 같은 생산성에 대한 압박을 느끼면서 뭐라도 해보는 거죠. 이게 전부는 아닐 겁니다. 이미 ChatGPT 보다 cluade의 성능이 더 나아졌고, 새로운 도구들은 사진에서 비디오로 나아가듯 계속 나올 테니까요. 확실한 건 AI와 협응 하는 방향으로 나아가야 한다는 건데요. 미국 전 국무장관 헨리 키신저, 구글 전 CEO 에릭 슈밋, MIT 학장이자 컴퓨터 과학자 대니얼 허튼로커가 공동 집필한 책 <AI 이후의 세계>에는 이런 문장이 있습니다.

인간은 생각의 많은 부분을 AI에게 위임한다. 하지만 정보는 그 자체로 설명되지 않는다. 어떤 정보가 유용하게 쓰이려면, 적어도 의미가 있으려면 문화와 역사라는 렌즈를 거쳐 이해돼야 한다. 정보에 맥락이 더해질 때 지식이 된다.

<AI 이후의 세계>
Claude에 쿠팡 홈화면 캐러셀 디자인을 첨부하고 사용성에 대해 분석을 해달라고 요청한 결과 ©WHTM

1️⃣ 빠르지만 완전히 확신할 수 없는 결과물

AI가 할 수 있는 것과 없는 것에 대한 명확한 판단과 인식이 필요합니다. 마치 UX 리서치로 할 수 있는 것과 할 수 없는 것을 구분하는 것처럼 말이죠. 이미지 1장을 입력하고 휴리스틱 기반으로 예상되는 사용성 문제를 UT 없이 분석하도록 할 수도 있습니다. 그러나 이 결과물을 확신하느냐의 문제는 여전히 UX 리서처의 역할이 될 겁니다.

2️⃣ 학습을 시키는 주체의 편향

GIGO라는 말이 있습니다. Garbage 데이터를 Input하면 Garbage 결과물이 Output으로 나온다는 것이죠. 맥락을 학습시키기 위해 필수적인 데이터가 무엇이며 그 데이터에 편향과 오차가 없도록 하는 것이 핵심이 될 겁니다. 학습시킬 수 있는 데이터는 이미 진행한 리서치 결과물을 토대로 할 수밖에 없습니다. 전혀 다른 도메인, 업종, 디바이스 기반의 비즈니스를 진행하려는 상황에서 이 결과물은 편향될 수밖에 없습니다.

3️⃣ 디지털 윤리와 정무적 감각

디지털 윤리 차원에서 판단하는 주체는 여전히 UX 리서처일 것입니다. 접근성과 관련해서 AI는 기존의 판단이나 여론, 평가결과를 활용해 제안할 수 있겠지만 새롭게 생기는 규제나 플랫폼에 요구되는 정무적 감각까지 기대하기는 어렵습니다. 정무적 판단능력은 여전히 인간의 몫이 되어야 합니다. 양보해야 하는 순간이나 멈춰야 하는 지점, 이기지 말아야 하는 순간에 대해 판단하는 것은 UX 리서처의 몫입니다.

4️⃣ 인간미를 더한 비구조적 리서치

정무적 감각이 규제와 여론, 브랜드에 대한 불매운동 등에 관한 것이라면 인간미나 유머에 대한 영역도 여전히 AI 시대에 완전한 위임을 하기 어려운 영역일 겁니다. 인간적인 UX에 대해 학습을 충분히 시키더라도 인간이 아닌, 인간에 가까운 AI라는 점을 고려하면 맥락적이고 비구조화된 UX 리서치는 쉽게 대체될 수 없을 겁니다.

5️⃣ 목표설정을 통해서만 나아가는 AI

목표를 스스로 설정하기보다 주어진 입력문에 따라 행동하는 AI는 스스로 지향점을 찍기 어렵습니다. 그렇다 보니 목표가 명확한 상황에서는 인간보다 더 빠르게 데이터를 활용해 분석결과를 내놓을 수 있겠지만 새로운 목표가 추가되거나, 환경이 바뀌었을 때는 기준점을 수정해야 합니다.