AI/Tech 다이제스트 — 2026-04-12
2026-04-12 AI/Tech 다이제스트
1. Mythos가 찾은 취약점은 작은 모델도 찾았다
Small models also found the vulnerabilities that Mythos found
hn · ⬆ 1124 · 💬 298
Anthropic의 Mythos 사례를 작은 오픈웨이트 모델들로 다시 돌려보며, 동일한 취약점 다수가 거대 모델 고유 능력보다 scaffold와 과제 구성의 효과일 수 있음을 검증한 분석 글.
💬 HN에서는 Mythos의 비용 대비 성과를 인정하면서도, 핵심 취약점 상당수가 더 작고 싼 모델에서도 재현된다는 점이 더 중요하다는 반응이 붙었다.
2. PIArena, 프롬프트 인젝션 평가 플랫폼
PIArena: A Platform for Prompt Injection Evaluation
arxiv
프롬프트 인젝션 방어를 공통된 공격·작업·방어 조합 위에서 비교할 수 있도록 설계한 평가 플랫폼 논문으로, 방어 기법의 실제 일반화 성능을 같은 틀에서 재려는 시도다.
3. OPD의 길이 폭주와 안정화 전략
Demystifying OPD: Length Inflation and Stabilization Strategies for Large Language Models
arxiv
On-policy distillation에서 학생 모델의 롤아웃 길이가 갑자기 늘어나며 truncation collapse와 반복 포화가 생기는 실패 모드를 분석하고 이를 완화하는 학습 안정화 방법을 제안한 논문.
4. FlashAttention FA1부터 FA4까지 PyTorch로 구현해 보기
FlashAttention (FA1–FA4) in PyTorch - educational implementations focused on algorithmic differences [P]
reddit · ⬆ 31 · 💬 5
FlashAttention 1부터 4까지의 알고리즘 차이를 교육용 PyTorch 구현으로 나눠 보여주며, 각 버전이 메모리 이동과 계산 패턴을 어떻게 바꾸는지 비교하는 글.
5. 표현 스티어링은 내부에서 무엇을 바꾸는가
What Drives Representation Steering? A Mechanistic Case Study on Steering Refusal
arxiv
refusal steering vector가 모델 내부 표현과 최종 출력에 어떤 인과적 변화를 만드는지 추적해, steering이 실제로 건드리는 메커니즘을 분석한 논문.
6. SQLite 3.53.0 핵심 변경점
SQLite 3.53.0
rss
SQLite 3.53.0에서 ALTER TABLE의 제약 조건 추가·제거, Query Result Formatter 등 실제 사용자가 바로 체감할 수 있는 기능과 내부 개선을 정리한 릴리스 해설.
7. SQLite Query Result Formatter 데모
SQLite Query Result Formatter Demo
rss
SQLite 3.53.0에 추가된 Query Result Formatter를 WebAssembly 데모로 직접 실행해 보면서 SQL 결과 테이블 렌더링 옵션을 확인할 수 있게 만든 글.
8. Anthropic이 캐시 TTL을 1시간에서 5분으로 줄였다
Anthropic silently downgraded cache TTL from 1h → 5M on March 6th
hn · ⬆ 122 · 💬 100
Claude Code의 캐시 TTL이 2026년 3월 6일 조용히 1시간에서 5분으로 줄어들었다는 GitHub 이슈로, 캐시 전략 변경이 비용과 반복 작업 흐름에 미치는 영향을 사용자 관찰로 드러낸다.
💬 HN에서는 제목의 5M 표기가 5개월처럼 읽힌다는 지적과 함께, 더 큰 문제는 이런 동작 변화가 사전 공지 없이 일어난다는 점이라는 반응이 나왔다.
9. 월 20달러 스택으로 여러 1만 달러 MRR 사업 운영하기
I run multiple $10K MRR companies on a $20/month tech stack
hn · ⬆ 267 · 💬 192
SQLite, 단일 서버, 낮은 운영 복잡도로 여러 수익성 있는 SaaS를 굴리는 실제 스택과 비용 구조를 공개하며, 초기 단계에서 과한 분산 아키텍처가 왜 불필요한지 사례로 설명한 글.
💬 HN에서는 로컬 SQLite가 원격 Postgres로의 TCP hop보다 훨씬 빠르며, 많은 팀이 너무 이른 시점에 Kubernetes와 planet-scale 구성을 상정한다는 지적이 핵심 논점이었다.
10. 추가 학습 없는 cross-subject 뇌 신호 디코딩
Meta-learning In-Context Enables Training-Free Cross Subject Brain Decoding
arxiv
in-context meta-learning만으로 서로 다른 피험자 사이의 시각 뇌 신호를 추가 학습 없이 일반화하려는 접근을 제시한 논문으로, 개인 간 표현 차이를 학습 없이 넘는 것이 목표다.
11. 오픈 모델 컨소시엄은 왜 결국 필요해지는가
The inevitable need for an open model consortium
rss
소수 기업이 모델 개발 자원과 배포 경로를 장악하는 상황에서, 장기적으로는 자금·데이터·인프라를 공동 조달하는 오픈 모델 컨소시엄이 필요해질 수밖에 없다는 주장을 전개한 글.
12. ChatGPT 음성 모드는 더 약한 모델을 쓴다
ChatGPT voice mode is a weaker model
rss
ChatGPT 음성 모드가 최신 추론 모델이 아니라 GPT-4o 시기의 더 약한 모델에 기반하며, 지식 cutoff가 2024년 4월로 드러난다는 점을 짚은 글.
Generated at 2026-04-12T11:31:45.533507+00:00Z