~에 따르면 눈이 번쩍 뜨이는 이야기 토요일 워싱턴 포스트에서 구글 엔지니어는 미공개 정교한 인공 지능 시스템과 수백 번의 상호 작용 끝에 람다이 프로그램은 인식 수준을 달성한 것으로 여겨졌습니다.

인터뷰와 공개 성명서에서 AI 커뮤니티의 많은 사람들은 엔지니어의 주장을 일축했지만 일부는 그의 설명이 기술이 사람들로 하여금 인간의 특성을 할당하도록 이끄는 방법을 강조한다고 지적했습니다. 그러나 Google의 AI가 의식할 수 있다는 믿음은 이 기술이 무엇을 할 수 있는지에 대한 우리의 두려움과 기대를 강조한다고 주장할 수 있습니다.

대화 응용 프로그램을 위한 언어 모델(Language Model for Dialog Applications)을 나타내는 LaMDA는 인터넷에서 대량의 텍스트에 대해 교육을 받은 여러 대규모 AI 시스템 중 하나이며 서면 프롬프트에 응답할 수 있습니다. 기본적으로 패턴을 찾고 다음에 올 단어 또는 단어를 예측하는 작업을 수행합니다. 이러한 시스템은 점점 좋아지는 설득력 있게 인간적으로 보일 수 있는 방식으로 질문에 답하고 글을 작성하며 Google 자체 지난 5월 블로그 포스트에서 소개된 LaMDA 그는 “무한해 보이는 주제에 대해 자유롭게 흘러가는 방식으로 참여”할 수 있습니다. 그러나 그 결과는 우스꽝스럽고, 이상하고, 성가시며, 주의를 산만하게 만드는 경향이 있습니다.

엔지니어 Blake Lemoine은 Washington Post에 자신이 Lambda가 의식이 있다는 증거를 Google과 공유했지만 회사는 동의하지 않았다고 말했습니다. 구글은 성명에서 윤리학자와 기술자로 구성된 팀이 “우리 AI 원칙에 따라 블레이크의 우려를 검토했으며 증거가 그의 주장을 뒷받침하지 않는다고 통보했다”고 밝혔다.

6월 6일 Lemoine은 Medium에 “내가 회사에서 제기한 인공 지능에 대한 윤리적 우려에 대한 조사와 관련하여” 구글이 그를 유급 행정 휴가에 배치했으며 “곧” 해고될 수도 있다고 올렸습니다. (그는 2000년까지 구글 윤리 AI 팀의 리더였던 마가렛 미첼의 경험을 언급했다. 구글은 2021년 초에 그것을 걷어찼다. 그녀의 솔직한 후 2020년 말, 당시 공동 리더였던 Timnit Gebro는 퇴사합니다.. Gebru는 회사의 AI 리더십에 회의에서 제안에 대한 고려를 철회하거나 그녀의 이름을 삭제하도록 요청한 연구 논문과 관련된 것을 포함하여 내부 말다툼 끝에 축출되었습니다.)

구글 대변인은 르모인이 아직 휴직 중인 것으로 확인했다. Washington Post에 따르면 그는 회사의 기밀 유지 정책을 위반하여 휴가를 받았습니다.

월요일에 Lemoine은 논평할 수 없었습니다.

심층 빅 데이터에 대해 훈련된 강력한 컴퓨팅 프로그램의 지속적인 출현은 이 기술의 개발 및 사용을 관장하는 윤리에 대한 우려를 불러일으켰습니다. 그리고 때때로 발전은 현재 가능한 것보다 앞으로 올 수 있는 것의 관점에서 봅니다.

Lemoine의 실험에 대한 AI 커뮤니티의 응답은 주말 동안 소셜 미디어를 통해 메아리쳤고 일반적으로 동일한 결론에 이르렀습니다. Google의 AI는 의식에 가깝지도 않습니다. Mozilla의 신뢰할 수 있는 인공 지능 선임 연구원인 Abiba Birhani는 다음과 같이 말했습니다. 짹짹 일요일에 “우리는 ‘이 의식적인 신경망’의 새로운 시대에 진입했고 이번에는 그것을 반박하는 데 많은 에너지가 필요할 것”이라고 말했다.
Uber가 판매한 Geometric Intelligence의 설립자이자 CEO이자 “Rebooting AI: Building Artificial Intelligence We Can Trust”를 포함한 책의 저자인 Gary Marcus는 의식적으로 LaMDA를 출시했습니다. “죽마에 헛소리” 트윗에서. 빨리 썼다 블로그 게시물 이러한 모든 AI 시스템은 방대한 언어 데이터베이스에서 가져와 패턴 일치를 수행합니다.
블레이크 르모인(Blake Lemoine)이 2022년 6월 9일 목요일 캘리포니아 샌프란시스코의 골든 게이트 파크에서 사진을 위해 포즈를 취하고 있습니다.

월요일 CNN Business와의 인터뷰에서 Marcus는 LaMDA와 같은 시스템을 생각하는 가장 좋은 방법은 문자 메시지의 다음 단어를 예측하는 데 사용할 수 있는 자동 완성 프로그램의 “영광된 버전”이라고 말했습니다. “너무 배고파서 가보고 싶어요”라고 쓰면 다음 단어로 “레스토랑”을 제안할 수 있습니다. 그러나 이것은 통계를 사용하여 만든 예측입니다.

“아무도 스테로이드를 사용하더라도 자동 완성이 의식적이라고 생각해서는 안 됩니다.”라고 그는 말했습니다.

창립자이자 CEO인 Gebru와의 인터뷰에서 분산인공지능연구소DAIR 또는 DAIR, Lemoine은 의식적인 인공 지능 또는 인공 일반 지능(인간과 같은 작업을 수행하고 의미 있는 방식으로 우리와 상호 작용할 수 있는 인공 지능을 지칭하는 아이디어)이 멀지 않다고 주장하는 많은 회사의 희생자라고 말했습니다. .
구글은 교수에게 6만 달러를 제안했지만 거절했다.  여기 이유가 있습니다
예를 들어 OpenAI의 공동 창립자이자 수석 과학자인 Ilya Sutskiver는 다음과 같이 말합니다. 짹짹 2월에는 “오늘날의 대형 신경망은 조금 의식이 있을지도 모른다.” 그리고 지난 주 Google Research의 부사장이자 동료인 Blaise Aguera y Arcas는 이코노미스트에 기고한 기사 그가 작년에 LaMDA를 사용하기 시작했을 때 “나는 점점 더 똑똑한 것에 대해 이야기하고 있다는 느낌을 받았습니다.” (이 기사에는 이제 Lemoine이 “워싱턴 포스트와의 인터뷰에서 Google의 챗봇인 LaMDA가 “의식”이 되었다고 주장한 후 휴가를 받았다는 편집자의 메모가 포함되어 있습니다.)

“발생하는 일은 더 많은 데이터, 더 많은 컴퓨팅을 사용하기 위한 경쟁이 있다는 것입니다. 여러분 모두가 알고 있고 모든 질문에 답하거나 무엇이든 대답할 수 있는 이 일반적인 것을 만들었다고 말할 수 있습니다. 그것이 바로 여러분이 연주한 드럼입니다.” 말했다. . “그럼 이 사람이 극한까지 갔을 때 얼마나 놀랐습니까?”

Google은 성명에서 LaMDA가 11번의 “AI 원칙에 대한 탁월한 검토”와 품질, 안전 및 사실 기반 데이터를 제공하는 능력에 관한 “엄격한 연구 및 테스트”를 거쳤다고 밝혔습니다. 회사는 “물론 더 광범위한 AI 커뮤니티의 일부는 의식 또는 일반 AI의 장기적인 잠재력을 연구하고 있지만 의식이 없는 현재 대화 모델을 구현함으로써 그렇게 하는 것은 이치에 맞지 않는다”고 말했다.

구글은 “수백 명의 연구원과 엔지니어가 람다와 대화를 나눴지만 우리는 블레이크처럼 광범위한 주장을 하거나 람다를 구현하는 다른 사람을 알지 못한다”고 말했다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

You May Also Like

Nintendo Switch Online 확장에 3개의 Sega Genesis 게임이 추가되었습니다.

참여 닌텐도 라이브 켜짐 유튜브 어제 예정된 유지 관리에 따르면 Nintendo는 추가…

마지막으로 홈 랩을 위해 isc-dhcp-server에서 isc-kea로 업그레이드했습니다.

이런 식으로 분류하면 마이그레이션 프로세스가 그다지 어려워 보이지 않습니다. Kea의 기본 구성…

Microsoft’s ambitious Minecraft Earth game ends June 30th

Microsoft closes the Minecraft world Mobile game in June, due to the…

Square Enix의 Mana 시리즈에 새로운 애니메이션, 콘솔 게임 및 새로운 스마트 폰 버전이 추가되었습니다.

스크린 샷: 스퀘어 에닉스 이번 주말, Square Enix 핸들 ㅏ 어디 많은…