본문 바로가기
GPT로 놀아보자

펜타곤 폭발 사진이 가짜라는 것을 어떻게 알 수 있을까? AI가 만든 이미지를 구별하는 방법[출처] 펜타곤 폭발 사진이 가짜라는 것을 어떻게 알 수 있을까? AI가 만든 이미지를 구별하는 방법|..

by 꾸준함이무기다 2023. 5. 27.

https://www.aljazeera.com/news/2023/5/23/fake-pentagon-explosion-photo-goes-viral-how-to-spot-an-ai-image

 

Fake Pentagon explosion photo goes viral: How to spot an AI image

A picture claiming to show an explosion near the Pentagon raises concerns about AI’s ability to produce misinformation.

www.aljazeera.com

 

오늘은 최근에 소셜미디어에 퍼진 펜타곤 폭발 사진이 가짜라는 것을 어떻게 알 수 있는지 알아보겠습니다. 이 사진은 AI가 만든 것으로, 잘못된 정보를 전파하기 위한 목적으로 사용되었습니다. 이런 AI가 만든 이미지는 점점 더 현실적이고 정교해지고 있으므로, 우리는 진실과 거짓을 구별할 수 있는 능력을 키워야 합니다.

이 사진은 월요일에 소셜미디어에 공유되었고, 잠시 동안 주식 시장에 영향을 미쳤습니다. 몇 분 안에 많은 소셜미디어 계정들이 이 가짜 사진을 공유했고, 혼란을 더욱 가중시켰습니다. 다행히도, 당국은 이런 사건이 발생하지 않았다고 확인했습니다.

하지만 이 사진이 왜 가짜인지 어떻게 알 수 있었을까요? 온라인 뉴스 검증 그룹인 벨링캣의 닉 워터스를 비롯한 소셜미디어 탐정들은 이 이미지에 몇 가지 문제점을 지적했습니다.

  • 펜타곤과 같은 번화한 지역에서 이런 사건이 발생했다면 다른 목격자들의 증언이 있어야 합니다. 하지만 이 사진과 관련된 다른 이미지나 동영상, 혹은 첫 손으로 본 사람들의 글이 없었습니다.
  • 건물 자체가 펜타곤과 많이 다릅니다.(하지만 대부분의 사람들은 모르겠죠...) 구글 스트리트 뷰와 같은 도구를 사용하면 두 이미지를 쉽게 비교할 수 있습니다. 다른 세부사항으로는 이상하게 떠 있는 가로등과 포장도로에서 튀어나온 검은색 막대기 등이 있습니다. 이런 것들은 AI가 장소를 재현하는데 어려움을 겪고 임의의 오류를 만들어낸 것입니다.
  • AI가 만든 이미지는 대부분 실제 이미지들을 보고 학습하지만, 데이터가 부족한 부분은 자신의 해석으로 채웁니다. 이 때문에 사람들이 여분의 팔이 있거나 주변과 합쳐진 물체들이 나타날 수 있습니다.

소셜미디어에서 최신 뉴스를 보여주는 이미지를 볼 때, 다음과 같은 점들을 염두에 두는 것이 좋습니다.

  • 이미지가 신뢰할수 있는 출처에서 왔나 확인하세요. 공식적인 기관이나 언론사가 아닌 경우, 조작될 가능성이 높습니다.
  • 이미지의 내용과 일치하는 다른 증거들을 찾아보세요. 예를 들어, 폭발과 같은 큰 사건이라면 다른 각도나 시간대의 이미지나 동영상, 혹은 목격자들의 글이 있어야 합니다.
  • 이미지에 있는 세부사항들을 자세히 살펴보세요. AI가 만든 이미지는 종종 현실과 맞지 않는 오류나 모순을 포함합니다. 예를 들어, 건물의 모양이나 색깔, 배경의 풍경, 인물의 외형 등을 확인하세요.
  • AI가 만든 이미지를 감지하는 도구들을 사용해보세요. 예를 들어, Midjourney Detector와 같은 웹사이트나 앱들이 있습니다. 이런 도구들은 이미지에 있는 픽셀들의 패턴을 분석하여 AI가 만든 것인지 아닌지를 판단해줍니다.

AI가 만든 이미지는 우리에게 유용하고 재미있는 경험을 제공할 수 있습니다. 하지만 그와 동시에 잘못된 정보나 의도적인 조작을 전파하기 위한 수단으로도 사용될 수 있습니다. 따라서 우리는 AI가 만든 이미지를 구별하고 검증할 수 있는 지식과 기술을 갖추어야 합니다.

여러분은 어떻게 생각하시나요? 

댓글