이 기사는 구글의 인공지능 Ethics 조사를 다루고 있다. 두 해 전 알파벳 인크-구글의 부모 회사-는 인공지능에 대한 윤리를 연구하기로 맹세했다. 이미 구글 내부에 AI 관련 윤리를 전담하는 그룹이 있어 제품의 도덕적 문제는 항상 이 그룹의 피드백을 받아왔다. 그러나 2023년 3월에 론칭될 AI인 Bard는 조사 그룹으로부터 긍정적인 판단을 받지 못했으나, 구글은 계획대로 발표하며 경쟁사인 ChatGPT와 Microsoft의 OpenAI와 경쟁하기 위한 목적으로 출시한 것으로 밝혀졌다. 이로 인해 이전부터 구글에서 윤리를 지키고 있던 인원들도 구글을 떠나기 시작했다.
Bloomberg는 구글이 Bard의 출시를 위해 낮은 품질의 정보를 제공하였다고 보도했다. 회사 내부 자료와 이전부터 진행되고 있던 AIEthics 조사 그룹의 얘기를 토대로 밝혀진 것이다. 그러나 구글은 허위보도라고 반박하며 윤리는 여전히 상위 우선 순위라는 말을 하고 있다. 인공지능을 접하기 전까지도 윤리적 문제로 조직은 AI에 대한 연구를 꺼려했던 것을 고려하면 그 말이 이해가 된다. 하지만 경쟁사와의 경쟁으로 인해 구글은 이전의 엄격한 윤리 표준으로부터 벗어나게 된 것처럼 보인다.
Also Read:
내부 피드백에 따르면 Bard는 비난 받았고 완성도가 낮았다. 그러나 구글은 AI 조사를 위해 내부적으로 직원들에게 베타 테스트에 참여하게 하던 중 이들의 평가를 무시하고 바로 론칭하게 된 것으로 전해졌다. 이번 조사로 AIEthics 조사 그룹은 구글의 AI들이 business ventures를 우선시하는 태도에 당혹스러워하며 구글을 떠나가게 된 것으로 밝혀졌다.
구글은 AI에 대한 안정성 검사를 완료하고 실제 제품의 출시는 아니라고 발표하였다. 이는 가능한 위험을 피하기 위한 것으로 추측되나, Google Docs, Slides, Gmail 및 YouTube와 같은 서비스에서 위치를 표시하는 Bard 기반의 많은 특색이 나타나기를 기대하고 있다는 점에서 이는 모순적인 발표로 이어졌다. 구글에서 윤리로 인한 문제제기가 있을 때 대답으로 “프로세스를 느리게 하려는 것”이라는 말이 돌아온 것으로 이 그룹은 말을 꺼내지 못하고 있다.
Also Read:
한편, Bard에게 Public Access를 부여함으로써 이 AI가 배우고 성장할 수 있는 기회가 주어졌다. Google은 소프트웨어 알고리즘 분야에서 굉장히 능력을 발휘할 만큼 부분적으로 공개된 서비스에 있어 Bard를 적용하는 것은 그리
In Other News Around the World: