정백경/AI Slop과 책임 있는 AI 공유
AI 사용 자체가 아니라 AI 결과물을 사람이 어떻게 책임지는지에 대한 기준 문서입니다.
AI Slop은 AI가 만든 결과물을 사람이 충분히 검토하지 않고 그대로 넘기는 작업 문화를 가리킨다. 이 문서의 핵심은 용어 정의보다 정백경이 전사 AI 채널에서 AI의 긍정적인 가능성과 주의해야 할 점을 지속적으로 공유했다는 활동이다.
AI Slop
- AI가 만든 초안은 출발점일 수 있지만, 그대로 전달되는 순간 다음 사람에게 검토 비용을 떠넘길 수 있다.
- 속도가 올라갈수록 검토와 책임 기준이 더 중요해진다.
- AI Native는 더 많이 만드는 문화가 아니라 신뢰할 수 있게 만드는 구조까지 포함한다.
전사 AI 채널에서의 공유
정백경은 AI를 무조건 낙관하거나 무조건 경계하는 방식이 아니라, 실제 업무에서 어떻게 바라보고 써야 하는지에 대한 관점을 지속적으로 공유했다. 긍정적인 가능성과 함께 주의해야 할 점을 반복적으로 제시하며, 팀원들이 AI를 책임 있게 활용하도록 기준을 만들었다.
정백경의 기준
- AI가 대부분을 만들 수 있어도 마지막에는 사람의 맥락, 취향, 책임, 전문성이 들어가야 한다.
- 동료가 가치 있는 이유는 AI 답변을 전달하기 때문이 아니라 자신의 생각과 판단을 더하기 때문이다.
- 좋은 AI 활용은 결과물을 그대로 내보내는 것이 아니라, 사람이 검토 가능한 형태로 정리하고 판단을 보태는 것이다.
Product Engineer와 연결
Product Engineer 전환에서 사람의 역할은 문제정의, 맥락 큐레이션, 품질 판단, 출시 책임으로 이동한다. AI Slop에 대한 경계는 이 전환의 품질 기준이다. 사람은 AI에게 일을 맡기되, 결과물의 책임까지 위임하지 않는다.