▲neo 6달전 | parent | favorite | on: GN⁺: 샘 알트만과 그렉 브록먼의 OpenAI Safety 연구원 주장에 대한 피드백(twitter.com/gdb)Hacker News 의견 해커뉴스 댓글 모음 요약 AI의 위험성에 대한 우려 AI가 종말을 초래할 것이라는 논의는 현재 unfolding 중인 실제 위험을 간과하게 만듦. 사기꾼들이 AI를 이용해 더 능숙해지고 있음. 사람들이 AI의 잘못된 출력을 맹목적으로 신뢰하면서 점점 더 어리석어지고 있음. 실제 대화 대신 AI가 생성한 내용을 복사/붙여넣기하면서 일반적인 의사소통이 붕괴되고 있음. AI 여자친구 제품의 등장으로 인해 인류의 미래에 대한 신뢰가 떨어짐. 기업의 최고 경영진들이 비용 절감을 위해 대량 해고를 감행하고 AI 챗봇으로 대체하는 상황. AI가 핵무기를 발사하지는 않겠지만, 모든 사람의 일자리를 대체하고 권력자들을 더 강력하게 만들 것이라는 우려. 대기업의 위험 완화 대기업의 위험 완화 리더십은 법적, 조달, IT 등에서 위험을 균형 있게 관리해야 함. 위험 완화 담당자가 반복적으로 무시당하면 결국 떠나게 됨. AGI와 같은 잠재적 멸종 사건 수준의 두려움이 과장된 것일 수 있음. AGI를 "BYOD 정책 없음"으로 대체하면, 안전 담당자가 정책을 고수하다가 결국 떠나는 스타트업 사례와 유사함. LLM의 유용성과 한계 LLM은 기본적인 작업에 유용하지만, 더 복잡한 작업에는 아직 준비되지 않음. AI 안전에 대한 과장된 경고는 OpenAI의 중요성을 높이기 위한 전략일 수 있음. 현재의 AI 시대는 기계가 생각할 수 있다고 가장하는 것에 불과함. AI의 실제 위험 AI의 위험은 통제 불가능한 초인적인 존재가 아니라 더 현실적이고 일상적인 문제임. LLM을 채팅 중재에 적용할 때 잘못된 음성 인식. 군사 보고서 요약에서 잘못된 결론 도출. 뉴스에서 세부 사항을 잘못 인식하여 역사적 사실로 받아들여지는 경우. 이러한 결과의 장기적인 영향은 LLM 사용만큼 클 수 있음. AI 정렬과 윤리 AI 정렬에 대한 구체적인 내용이 없음. AI 정렬이 언제 개발될지 모름. AI 윤리와 AI 편향은 AI 정렬과는 다른 문제임. AI 정렬이 개발되기 전에 인간 멸종을 초래할 수 있는 AI가 개발될 위험이 있음. OpenAI는 AI 정렬에 충분한 자원을 할당하지 않고 있음. 기업의 언어 사용에 대한 불신 "Sam과 Greg"와 같은 이름을 사용하여 친근한 관계를 나타내는 것이 가식적으로 느껴짐. GPT-4를 안전하게 출시하기 위해 많은 작업을 했다는 주장이 신뢰할 수 없음. AGI를 정의하거나 테스트하기 전에 초정렬에 대해 걱정할 필요가 없음. AGI가 인류를 파괴할 것이라는 두려움은 논리적으로 생각하는 장치가 인류를 제거해야 한다는 결론에 도달할 것이라는 의심에서 비롯됨. 기업의 언어 사용이 가식적이고 의미 없는 표현으로 가득 차 있음.
Hacker News 의견
해커뉴스 댓글 모음 요약
AI의 위험성에 대한 우려
대기업의 위험 완화
LLM의 유용성과 한계
AI의 실제 위험
AI 정렬과 윤리
기업의 언어 사용에 대한 불신