외부에서 볼 때 Google Bard는 ChatGPT와 경쟁하기 위해 서두르는 제품처럼 보이며 일부 Google 직원은 그러한 감정을 공유합니다. 의 새 보고서 블룸버그 그는 18명의 현직 및 전직 직원을 인터뷰하고 Google이 Bard를 문 밖으로 내보낼 때까지 “사악하고 의기소침한” AI 윤리 팀에 대한 많은 의견과 우려를 내놓았습니다.
보고서에 따르면 Bard 버전을 사전 테스트한 Google 직원은 피드백을 요청받았지만 대부분 무시되어 Bard가 더 빨리 출시될 수 있었습니다. Bloomberg가 본 내부 토론에서는 Bard를 “한발 뒤로 물러날 자격이 있다”, “병적인 거짓말쟁이”라고 불렀습니다. 비행기 착륙 방법을 물었을 때 그는 비행기 추락으로 이어질 잘못된 지시를 했습니다. 한 스태프가 잠수 지침을 물었고 “심각한 부상이나 사망에 이를 가능성이 있다”는 답변을 받았습니다. 한 직원은 2월 “추위가 쓸모없는 것보다 더 나쁩니다: 제발 해고당하지 마세요”라는 제목의 게시물에서 Bard의 문제를 마무리했습니다. Bard는 3월에 출시되었습니다.
Google이 쫓고 있는 AI 경쟁자인 OpenAI의 ChatGPT에 대해서도 같은 말을 많이 할 수 있을 것입니다. 둘 다 편향되거나 잘못된 정보를 제공하고 잘못된 답변을 환각할 수 있습니다. Google은 ChatGPT보다 훨씬 뒤쳐져 있으며 회사는 사람들이 Google 검색에 입력할 수 있는 질문에 대답하는 ChatGPT의 능력에 놀랐습니다. ChatGPT의 창시자인 OpenAI는 AI 안전과 윤리에 대해 느슨하게 접근했다는 비판을 받아왔습니다. 이제 Google은 어려운 위치에 있습니다. 기업의 유일한 관심사가 주식시장을 달래고 ChatGPT를 따라잡는 것이라면, 윤리적 문제를 고려하는 데 속도를 늦춘다면 그렇게 할 수 없을 것입니다.
전 Google 이사이자 Signal Foundation의 회장인 Meredith Whitaker는 Bloomberg에 “AI 윤리가 Google에서 뒷자리를 차지했다”고 말하면서 “윤리가 이익과 성장을 우선시할 위치에 있지 않으면 결국 승리할 것”이라고 말했습니다. 작동하지 않습니다.” 최근 몇 년 동안 여러 Google AI 윤리 리더가 해고되거나 회사를 떠났습니다. Bloomberg는 오늘날 AI 윤리 검토가 Google에서 “거의 전적으로 자발적”이라고 말합니다.
Google에서 윤리적 문제로 인해 릴리스 속도를 늦추기 위해 무언가를 할 수는 있지만 경력에는 도움이 되지 않을 것입니다. 보고서는 다음과 같이 말합니다. “한 전직 직원은 머신 러닝 정의를 수행하라는 요청을 받았고 일상적으로 좌절했다고 말했습니다. 성과 검토에 영향을 미쳤습니다. 관리자는 이것이 ‘실제 작업’을 방해하고 있다고 항의했습니다. “
“재화는 뛰어난 분석 능력을 가진 분석가로, 다양한 주제에 대한 깊은 통찰력을 가지고 있습니다. 그는 창조적인 아이디어를 바탕으로 여러 프로젝트를 주도해왔으며, 좀비 문화에 특별한 애정을 갖고 있습니다. 여행을 사랑하며, 대중 문화에 대한 그의 지식은 깊고 폭넓습니다. 알코올에 대한 그의 취향도 독특합니다.”