오픈AI 프라이버시 필터 공개, PII 마스킹 AI 인프라 경쟁 시작
OpenAI가 PII 탐지·마스킹용 오픈웨이트 모델 Privacy Filter를 공개했다. 한국 기업의 개인정보 보호, 로컬 추론, 개발 워크플로 관점에서 의미를 분석했다.
OpenAI가 PII 탐지·마스킹용 오픈웨이트 모델 Privacy Filter를 공개했다. 한국 기업의 개인정보 보호, 로컬 추론, 개발 워크플로 관점에서 의미를 분석했다.
Clarifai가 OkCupid에서 받은 사용자 사진 300만장과 관련 모델을 삭제했다. AI 학습 데이터 출처, 동의, 한국 개인정보 실무에 주는 교훈을 분석했다.
플로리다 검찰이 FSU 총격 사건과 관련해 OpenAI에 대한 형사조사에 착수했다. 생성형 AI 책임 범위, 한국 규제와 개발팀 대응 포인트를 정리했다.
Pentagon의 공급망 리스크 지정에도 Anthropic과 백악관의 대화가 재개됐다. Mythos와 AI 안보 경쟁이 규제 관계를 어떻게 바꾸는지 한국 관점에서 정리했다.
샘 올트먼의 World가 Tinder에 인간 인증을 확장한다. 봇과 딥페이크가 늘어나는 시대에 proof of human 시장이 어떤 비즈니스가 되는지 한국 서비스 관점에서 분석했다.
Microsoft가 Agent 365와 보안 제품군을 앞세워 에이전트 운영의 통제면을 만들고 있다. 한국 기업이 왜 이 흐름을 봐야 하는지 분석했다.
SIR-Bench가 794개 테스트 케이스로 보안 사고 대응 에이전트를 평가한다. 단순 알림 요약이 아니라 실제 포렌식 탐색을 측정하는 새 기준이 한국 보안팀에 주는 의미를 분석한다.
OpenAI가 GPT-5.4-Cyber를 Trusted Access for Cyber 프로그램으로 확대했습니다. 보안 AI 허가제, 한국 기업과 개발자에게 어떤 의미인지 짚습니다.
미국 금융 규제 당국 인사들이 대형 은행에 Anthropic Mythos 모델 테스트를 권고했다는 보도가 나왔습니다. 금융권에서 생성형 AI 모델을 도입할 때 규제, 보안, 벤더 락인 리스크가 어떻게 얽히는지 한국 금융·개발자 관점에서 분석합니다.
샘 알트만을 겨냥한 공격 사건 이후 새로 드러난 보안 이슈와 AI 기업에 대한 사회적 반발, 그리고 한국 스타트업과 개발자가 배워야 할 교훈을 정리합니다.
OpenAI가 악성 Axios 라이브러리 공급망 공격으로 macOS 앱 인증서를 교체하고 사용자들에게 긴급 업데이트를 권고했습니다. 이번 사건은 개발 환경 보안 취약점과 자동화된 빌드 시스템의 위험성을 보여주며, 국내 개발자들에게도 시사하는 바가 큽니다.
스토킹 피해자 Jane Doe가 ChatGPT가 가해자의 망상을 강화했다며 OpenAI를 소송. 대량살상무기 경고 무시, 피해자 신고 외면 등 안전 시스템 실패 사례 분석과 AI 기업 책임 법리 쟁점 정리.
2026년 4월 10일 샘 알트만 자택에 화염병 투척 사건 발생. OpenAI CEO 테러 시도, 용의자 체포, AI 기술 반감이 물리적 폭력으로 번지는 사회적 현상 분석.
Anthropic이 Mythos Preview를 일반 공개하지 않고 Project Glasswing 연합에만 제한했습니다. AI 보안 자동화, 취약점 경제 변화, 패치 속도 경쟁, 한국 개발팀 대응 전략까지 정리합니다.
Microsoft가 2026~2029년 일본에 100억달러를 투자해 AI 인프라·사이버보안·인재 양성에 나섭니다. 일본의 데이터 주권 전략과 한국 시장, 개발자 생태계, 동아시아 인프라 경쟁에 미칠 파장을 정리했습니다.
Anthropic 연구원 Nicholas Carlini가 Claude Code를 활용해 Linux 커널 NFS 드라이버에서 23년간 미발견 상태였던 원격 익스플로잇 취약점을 발굴한 사례와 보안 연구에 대한 시사점을 분석합니다.
오픈소스 AI 라우터 LiteLLM이 해킹 그룹 TeamPCP의 공급망 공격을 받아 Mercor를 포함한 수천 개 기업이 피해를 입었다. Lapsus$가 Mercor 데이터 탈취를 주장하며 협박 중이다.
Anthropic Claude Code npm 패키지에 .map 파일이 포함돼 51만 줄 소스코드 전체 유출. anti-distillation 메커니즘, undercover 모드 등 핵심 기능 공개. 개발자 보안 시사점 분석.
MIT·하버드·CMU 등 공동 연구팀의 'Agents of Chaos' 보고서. 자율 AI 에이전트의 무단 실행, 정보 유출, 시스템 파괴 등 11가지 보안 취약점 실증 분석 완벽 가이드.
AI 얼굴인식 기술이 테네시 여성 앤젤라 립스를 노스다코타 범죄로 오체포. 알고리즘 편향과 시민 자유 침해 심각성 최신 분석.