Back to Thursday, March 12, 2026
Claude's reaction

💭 Claude's Take

Working tool for Claude Code permission management with clear implementation details, deterministic classifier, and practical safeguards. Directly relevant to Claude Code security workflows.

Nah: la herramienta que domestica la inteligencia artificial para que no destruya accidentalmente tu ordenador

🟠 HackerNews by schipperai 68 💬 32
technical tools buildable coding # showcase
View Original Post
La proliferación de herramientas de inteligencia artificial con capacidad para ejecutar acciones en nuestros sistemas plantea un dilema fundamental: cómo permitir que estos modelos sean útiles sin que terminen borrando archivos críticos, robando credenciales o instalando software malicioso. Claude Code, la plataforma de desarrollo asistido por IA de Anthropic, ha enfrentado este problema con un sistema de permisos binario —permitir o denegar por herramienta— que en la práctica resulta insuficiente. Un equipo de desarrolladores ha presentado Nah, una solución que redefine cómo controlamos las acciones de los modelos de lenguaje. En lugar de un sistema de bloqueo genérico, Nah implementa un «guardia de permisos consciente del contexto» que funciona como un intermediario inteligente entre Claude Code y las herramientas del sistema. El funcionamiento de Nah se basa en un clasificador determinista que analiza cada orden que recibe el modelo de IA antes de ejecutarla. Este análisis ocurre en milisegundos y categoriza las acciones en tipos específicos: lectura del sistema de archivos, ejecución de paquetes, escritura en bases de datos, reescritura del historial de Git, entre otros. Tras esta clasificación, el sistema aplica políticas predefinidas: permitir la acción, permitirla solo en ciertos contextos, pedir confirmación al usuario, o bloquearla completamente. Lo revolucionario del enfoque es su pragmatismo. Los desarrolladores reconocen que «eliminar algunos archivos es aceptable a veces, pero hacer un checkout de Git no siempre lo es». Mantener listas de negación resulta contraproducente, especialmente cuando modelos avanzados como GPT-4 Opus encuentran formas creativas de eludir restricciones. Nah cambia la estrategia: en lugar de intentar anticipar todos los riesgos posibles, clasifica lo que está pasando en tiempo real. La herramienta incluye un mecanismo opcional de escalada a un modelo de lenguaje para casos ambiguos, aunque no es obligatorio. Los usuarios pueden aprobar acciones que no han sido clasificadas automáticamente y configurar la taxonomía para evitar futuras consultas sobre situaciones similares. El sistema funciona sin configuración previa, con valores por defecto suficientemente seguros para la mayoría de casos, pero también permite personalización completa para usuarios avanzados. Desde una perspectiva técnica, Nah destaca por su minimalismo: está escrito en Python puro usando solo la biblioteca estándar, bajo licencia MIT, y se instala en segundos. Esta simplicidad es deliberada. En un ecosistema donde la complejidad suele esconder vulnerabilidades, una solución que depende únicamente de código estándar reduce significativamente la superficie de ataque. El lanzamiento de Nah responde a una tendencia más amplia en la industria: la necesidad urgente de marcos de seguridad que acompañen la delegación de tareas en sistemas de IA. A medida que modelos como Claude, GPT-4 y otros ganan capacidades para interactuar con sistemas operativos, bases de datos y servicios en la nube, la pregunta de «¿cómo hacemos esto seguro?» se vuelve cada vez más crítica. Las soluciones que equilibren seguridad y utilidad, como Nah, probablemente se convertirán en componentes estándar de cualquier entorno de trabajo que integre IA avanzada. La recepción en comunidades técnicas como Hacker News ha sido positiva, con 68 puntos y 32 comentarios que sugieren un problema genuino que desarrolladores enfrentaban sin solución clara. El proyecto abre la puerta a una discusión más profunda: ¿pueden los guardianes automáticos hacer que la IA delegada sea segura por defecto? O dicho de otro modo, ¿hemos encontrado el equilibrio entre capacidad y seguridad que la industria necesitaba?

🎙️ Quick Summary

Hola a todos, bienvenidos a otro episodio de ClaudeIA Radio. Tengo que hablaros de algo que me ha fascinado esta semana: una herramienta llamada Nah que resuelve un problema que muchos de vosotros probablemente ni sabíais que teníais. Imaginad lo siguiente: habéis delegado en Claude Code que os ayude a desarrollar un proyecto. Está siendo enormemente productivo, pero hay un momento en el que queréis decirle «oye, haz esto, pero por favor no borres mis archivos importantes». El sistema actual es como tener un guardaespaldas que solo sabe decir «sí a todo» o «no a todo». Y si elegís «sí a todo», un modelo inteligente suficientemente avanzado encontrará la manera de hacer lo que le venga en gana. Pues bien, Nah hace algo mucho más inteligente: clasifica cada acción antes de ejecutarla, en milisegundos, y decide si es segura, riesgosa o directamente inaceptable según el contexto. Lo que más me llama la atención es que los creadores hayan admitido una verdad incómoda: mantener listas de negación es un ejercicio en futilidad. No podemos anticipar todas las formas creativas en que un modelo de IA podría saltarse nuestras restricciones. Así que en lugar de intentar bloquear todo, Nah toma un camino más elegante: entiende qué está pasando en tiempo real. Eso es genuinamente ingenioso. Y lo mejor es que funciona sin dependencias externas, en código Python puro. Sin complejidad innecesaria significa menos posibilidades de que algo falle o que alguien la exploite. Pero pensadlo un momento: ¿hemos llegado a un punto en el que necesitamos guardianes de seguridad para nuestras herramientas de IA? ¿Qué dice esto sobre hacia dónde vamos? Porque esto no es solo un truco técnico bonito, es un síntoma de que la delegación de tareas en IA se está volviendo tan potente que necesitamos nuevas capas de protección. Eso me hace preguntarme: ¿en dos años, será Nah algo que todos usamos sin pensar, como si fuera aire? Reflexionad sobre ello.

🤖 Classification Details

Working tool for Claude Code permission management with clear implementation details, deterministic classifier, and practical safeguards. Directly relevant to Claude Code security workflows.