Hacker News 의견
  • Microsoft, AI 도구 Copilot 사용과 관련된 법적 저작권 위험을 감수할 의향이 있음.
  • 일부 사용자들은 Microsoft가 기술이 침해하지 않음을 증명하기 위해 먼저 내부 코드베이스에서 훈련된 Copilot 모델을 게시해야 한다고 제안함.
  • Microsoft의 책임 부담에 대한 구체적인 사항에 대한 질문이 제기됨, 예를 들어 전 세계적으로 적용되는지, 법적으로 집행 가능한 계약인지 등.
  • Microsoft가 이 프로그램을 중단하지 않을 것이라는 사용자들의 보장에 대한 우려가 있음.
  • 일부 사용자들은 Copilot과 같은 생성 AI가 그 변형적인 성격 때문에 공정 사용으로 간주될 가능성이 높다고 믿음.
  • Microsoft의 이번 조치는 작은 조직들이 생성된 코드를 채택하는 것을 방해하는 주요 장애물을 제거하므로 전략적으로 볼 수 있음.
  • 그러나 Microsoft의 책임 부담이 사용자들이 별도로 소송을 당하는 것을 방지하지 않을 수도 있다는 점이 지적됨.
  • Copilot 사용 방법에는 조건이 있으며, 사용자들은 이러한 조건을 준수하고 있다는 것을 문서화해야 함.
  • 일부 사용자들은 Microsoft가 "침해 물질을 생성하려는 시도"를 어떻게 정의할지에 대해 우려를 표현함.
  • 사용자들이 그들의 콘텐츠가 Microsoft 서비스에서 나왔음을 어떻게 증명할 수 있는지에 대한 질문이 제기됨.
  • GitHub 저장소에 존재하는 어떤 코드든 출력을 방지하기 위해 설계된 안전장치가 활성화되면 Copilot의 기능이 크게 감소한다는 것이 지적됨.
  • 일부 사용자들은 코드 작성 시 Copilot의 답변이 더 자주 회색으로 표시되는 것을 발견함, 이는 책임 필터 때문일 수 있음.
  • 코드베이스가 GPL을 침해했다면, 해결책은 범죄 소스 코드를 게시하거나 배포를 중단하는 것이지만, 이 둘 모두 Microsoft에게는 우려사항이 아님.