인터뷰와 공개 성명서에서 AI 커뮤니티의 많은 사람들은 엔지니어의 주장을 일축했지만 일부는 그의 설명이 기술이 사람들로 하여금 인간의 특성을 할당하도록 이끄는 방법을 강조한다고 지적했습니다. 그러나 Google의 AI가 의식할 수 있다는 믿음은 이 기술이 무엇을 할 수 있는지에 대한 우리의 두려움과 기대를 강조한다고 주장할 수 있습니다.
엔지니어 Blake Lemoine은 Washington Post에 자신이 Lambda가 의식이 있다는 증거를 Google과 공유했지만 회사는 동의하지 않았다고 말했습니다. 구글은 성명에서 윤리학자와 기술자로 구성된 팀이 “우리 AI 원칙에 따라 블레이크의 우려를 검토했으며 증거가 그의 주장을 뒷받침하지 않는다고 통보했다”고 밝혔다.
구글 대변인은 르모인이 아직 휴직 중인 것으로 확인했다. Washington Post에 따르면 그는 회사의 기밀 유지 정책을 위반하여 휴가를 받았습니다.
월요일에 Lemoine은 논평할 수 없었습니다.
심층 빅 데이터에 대해 훈련된 강력한 컴퓨팅 프로그램의 지속적인 출현은 이 기술의 개발 및 사용을 관장하는 윤리에 대한 우려를 불러일으켰습니다. 그리고 때때로 발전은 현재 가능한 것보다 앞으로 올 수 있는 것의 관점에서 봅니다.
월요일 CNN Business와의 인터뷰에서 Marcus는 LaMDA와 같은 시스템을 생각하는 가장 좋은 방법은 문자 메시지의 다음 단어를 예측하는 데 사용할 수 있는 자동 완성 프로그램의 “영광된 버전”이라고 말했습니다. “너무 배고파서 가보고 싶어요”라고 쓰면 다음 단어로 “레스토랑”을 제안할 수 있습니다. 그러나 이것은 통계를 사용하여 만든 예측입니다.
“아무도 스테로이드를 사용하더라도 자동 완성이 의식적이라고 생각해서는 안 됩니다.”라고 그는 말했습니다.
“발생하는 일은 더 많은 데이터, 더 많은 컴퓨팅을 사용하기 위한 경쟁이 있다는 것입니다. 여러분 모두가 알고 있고 모든 질문에 답하거나 무엇이든 대답할 수 있는 이 일반적인 것을 만들었다고 말할 수 있습니다. 그것이 바로 여러분이 연주한 드럼입니다.” 말했다. . “그럼 이 사람이 극한까지 갔을 때 얼마나 놀랐습니까?”
Google은 성명에서 LaMDA가 11번의 “AI 원칙에 대한 탁월한 검토”와 품질, 안전 및 사실 기반 데이터를 제공하는 능력에 관한 “엄격한 연구 및 테스트”를 거쳤다고 밝혔습니다. 회사는 “물론 더 광범위한 AI 커뮤니티의 일부는 의식 또는 일반 AI의 장기적인 잠재력을 연구하고 있지만 의식이 없는 현재 대화 모델을 구현함으로써 그렇게 하는 것은 이치에 맞지 않는다”고 말했다.
구글은 “수백 명의 연구원과 엔지니어가 람다와 대화를 나눴지만 우리는 블레이크처럼 광범위한 주장을 하거나 람다를 구현하는 다른 사람을 알지 못한다”고 말했다.