Hacker News 의견
  • 연구자들은 이미 오래전에 간접적인 연관성을 바탕으로 한 개인의 타겟팅에 대한 우려를 제기했음. 이러한 시스템은 원래 감시 목적으로 사용되었으나, 이제는 단순한 감시를 넘어 사람을 실제로 죽이는 데 사용되고 있음.

    국제 인도법은 무장 단체의 "전투원"이 아닌 사람들을 죽이는 것을 금지하고 있음. 오직 "직접적인 적대 행위에 지속적으로 참여하는" 사람들만이 공격 대상이 될 수 있음. 나머지 민간인들은 직접적인 적대 행위에 참여할 때만 타겟이 될 수 있음.

  • 인공지능(AI)이 사전에 사람을 죽이는 결정을 내리는 아이디어에 대해 우려를 표함. 이 경우에는 인간의 승인이 있었지만, 인간 개입 없이 로봇에 의해 사람이 죽는 상황까지 한 걸음 떨어져 있음을 지적함.

    AI 없이 이스라엘이 더 무작위로 목표를 선정했을지, 아니면 전혀 폭탄을 떨어뜨리지 않았을지에 대한 대안을 고민함. 전쟁 상황에서 무고한 사람들이 죽는 것은 피할 수 없는 일임.

  • 많은 사람들이 제목만 보고 내용을 읽지 않을 것이라고 지적하며, 기사의 두 번째 단락을 주목하라고 권함.

    AI 시스템인 Lavender의 사용과 함께, 이스라엘 군 관계자들이 팔레스타인 민간인들의 대규모 사망을 허용했다고 주장함.

  • Serial 팟캐스트의 현재 시즌을 들어보라고 제안함.

    AI가 "준" 운영자들을 신속하게 식별하여 타겟팅하는 데이터 처리 방식은 2001년에 사용된 방식과 다르지 않음. 결정은 AI가 아닌 인간에 의해 내려짐.

  • 이스라엘의 행동을 부정적으로 묘사하는 이야기임에도 불구하고, 적어도 군사적 목표물을 공격하려는 시도로 읽힘.

    이스라엘은 기자, 의료진, 구호 활동가 등을 목표로 삼아 가자 지구의 생활을 불가능하게 만드는 것을 목표로 함.

  • 이 기술의 정확성에 대해 의문을 제기하며, 결과보다는 선진 기술로 보이는 것에 더 관심이 있는 것 같다고 지적함.

    권력자들이 "정확함"보다는 자신들의 편견을 확인할 정당성을 갖는 것에 더 관심이 있음을 증명함.

  • 이스라엘 국방군(IDF)이 군사 건물이나 군사 활동 중인 하마스 운영자들만을 죽이는 데 관심이 있었던 것은 아니라고 언급함.

    IDF는 가족의 집을 폭격하는 것을 주저하지 않았으며, 시스템은 이러한 상황에서 그들을 찾도록 구축됨.

  • AI의 사용이 IDF의 목표 달성에 어떤 이득을 가져다주었는지에 대한 의문을 제기함.

    AI의 지속적인 사용은 전쟁 범죄에 연루된 개인들에게 피난처를 제공하기 때문에 지지받고 있을 수 있음.

  • The Guardian도 이 이야기를 표지 기사로 다루고 있으며, 사전에 세부 사항을 제공받았음.

    이러한 이야기들은 공공의 이익에 해당하며, 토론이 이루어지기를 바람.

  • 한 소식통은 인간 직원들이 기계의 결정에 대해 "고무 도장" 역할만 했다고 언급함.

    자동화의 아이러니에 대한 논문을 떠올리게 함: 대부분의 작업이 자동화되면 인간의 감독은 거의 쓸모가 없어짐.