▲neo 2023-09-08 | parent | favorite | on: GN⁺: Microsoft, Copilot의 법적 저작권 위험에 대한 책임을 지게 됨(blogs.microsoft.com)Hacker News 의견 Microsoft, AI 도구 Copilot 사용과 관련된 법적 저작권 위험을 감수할 의향이 있음. 일부 사용자들은 Microsoft가 기술이 침해하지 않음을 증명하기 위해 먼저 내부 코드베이스에서 훈련된 Copilot 모델을 게시해야 한다고 제안함. Microsoft의 책임 부담에 대한 구체적인 사항에 대한 질문이 제기됨, 예를 들어 전 세계적으로 적용되는지, 법적으로 집행 가능한 계약인지 등. Microsoft가 이 프로그램을 중단하지 않을 것이라는 사용자들의 보장에 대한 우려가 있음. 일부 사용자들은 Copilot과 같은 생성 AI가 그 변형적인 성격 때문에 공정 사용으로 간주될 가능성이 높다고 믿음. Microsoft의 이번 조치는 작은 조직들이 생성된 코드를 채택하는 것을 방해하는 주요 장애물을 제거하므로 전략적으로 볼 수 있음. 그러나 Microsoft의 책임 부담이 사용자들이 별도로 소송을 당하는 것을 방지하지 않을 수도 있다는 점이 지적됨. Copilot 사용 방법에는 조건이 있으며, 사용자들은 이러한 조건을 준수하고 있다는 것을 문서화해야 함. 일부 사용자들은 Microsoft가 "침해 물질을 생성하려는 시도"를 어떻게 정의할지에 대해 우려를 표현함. 사용자들이 그들의 콘텐츠가 Microsoft 서비스에서 나왔음을 어떻게 증명할 수 있는지에 대한 질문이 제기됨. GitHub 저장소에 존재하는 어떤 코드든 출력을 방지하기 위해 설계된 안전장치가 활성화되면 Copilot의 기능이 크게 감소한다는 것이 지적됨. 일부 사용자들은 코드 작성 시 Copilot의 답변이 더 자주 회색으로 표시되는 것을 발견함, 이는 책임 필터 때문일 수 있음. 코드베이스가 GPL을 침해했다면, 해결책은 범죄 소스 코드를 게시하거나 배포를 중단하는 것이지만, 이 둘 모두 Microsoft에게는 우려사항이 아님.
Hacker News 의견