/ Docs Documentación
← solveOS

Scenario: You want to write an article titled "How to use AI to write better code" and publish it on your blog. You have opinions on the topic but you're not sure if the angle is actually useful or if the article already exists a hundred times.

[Research] → Plan → [Plan Validation] → Build → Ship

How to read this example

Each step shows what was given to an agent as an instruction, what the agent returned as output, and what the human decided based on that output. The agent can be you, a collaborator, or an AI — the structure is the same either way. Gates are where the human reads the output and decides whether to proceed. That decision is never skipped.

Step 1: Research gate

Instruction given to agent

What already exists on the topic "AI and writing better code"? Is there a specific angle or audience that is underserved? Spend no more than 45 minutes.

Output from agent

  • Most existing articles fall into two categories: (1) high-level hype pieces ("AI will replace developers"), or (2) tool-specific tutorials ("how to use Copilot")
  • Very few address the mindset and workflow shift — not just the tools
  • The audience most underserved: mid-level developers who already use AI tools but feel like they're not getting the full benefit
  • Common complaint found in forums: "I use Copilot but I feel like I'm just accepting code I don't understand"
  • Proposed angle: using AI to write better code, not AI tools for coding — the focus is on the developer getting better, not the tool being used

Human decision

The angle is real and underserved. The target reader has the tools — they need a mental model for using them intentionally. Proceed to Plan.

Step 2: Plan phase

Instruction given to agent

Using the research findings, write a Plan Brief for this article.

Reference files: Research findings from Step 1

Output from agent

Plan Brief

Problem
Mid-level developers use AI coding tools but feel passive and dependent — they accept suggestions without fully understanding them, which erodes their own skills over time.

Audience
Mid-level developers who already use AI coding tools but feel they're not getting the full benefit.

Goal
Write a practical article that gives developers a mental model for using AI as a thinking partner, not a code generator.

Appetite
One focused writing session (half day). If the article can't be done in that, scope it down — not extend the time.

Constraints

  • Target length: 1,000–1,500 words (long enough to be useful, short enough to be read)
  • Must be practical, not theoretical — every point needs a concrete example
  • No paywalled content, no product promotion
  • Tool-agnostic: no specific AI tool named by name

Success criteria

  • The article has a clear, testable argument (not just tips)
  • Every section includes a concrete, copy-able example
  • A mid-level developer who reads it can apply the main idea the same day
  • No specific AI tool is mentioned by name

Core assumption
The developer already has AI tools. The problem is not adoption — it is knowing how to use them intentionally.

Rabbit holes
Do not compare AI tools or benchmark outputs — that is a different article.

Out of scope

  • AI tool comparisons or recommendations
  • Beginner intro to AI coding tools
  • Opinion on whether AI will replace developers

Human decision

The brief is solid but the goal sentence is vague ("mental model" is abstract). Proceed to Plan Validation before writing.

Step 3: Plan Validation gate

Instruction given to agent

Read this Plan Brief. Tell me in your own words: what is this article about, what does it argue, and what would you cut if it had to be 20% shorter?

Reference files: Plan Brief from Step 2

Output from agent

  • "It's about using AI actively, not passively — like treating it as a pair programmer instead of autocomplete."
  • "The argument is: most people are using AI reactively (accept/reject). There's a better way: proactive use."
  • "I'd cut the constraint about not mentioning tools — it might make the examples feel vague."

Human decision

The agent's articulation of the argument ("reactive vs. proactive AI use") is sharper than what was in the Plan Brief. The tool-agnostic constraint stays — but it means examples need to be extra concrete to compensate. Update the brief before building.

Changes made to Plan Brief:

  • Goal updated: "Write a practical article that argues for proactive AI use over reactive AI use, and gives developers a concrete framework for the shift."
  • Added constraint: "Examples must be code-level and specific, since no tool names will be used."

Proceed to Build.

Step 4: Build phase

Instruction given to agent

Write the article according to this Plan Brief. The argument is reactive vs. proactive AI use. Every section needs a concrete code example. Target 1,000–1,500 words. No tool names.

Reference files: Updated Plan Brief from Step 3, Personal writing style guide

Output from agent

Draft produced with the following structure:

  1. Hook: the "accept/reject" trap — why most developers are using AI reactively
  2. Section 1: What reactive AI use looks like (code example: accepting a function you don't understand)
  3. Section 2: What proactive AI use looks like (code example: using AI to explain, then improve, then own)
  4. Section 3: A 3-question framework to run before accepting any AI output
  5. Closing: the shift from AI as a shortcut to AI as a thinking partner

Draft came in at 1,650 words.

Human decision — mid-build check

The 3-question framework in Section 3 didn't exist in the Plan Brief — it emerged during writing. It serves the goal directly, so it stays. Plan Brief updated to reflect it as an addition to success criteria.

Cut 200 words from Section 2 (the "reactive" example was over-explained). Final word count: 1,440 — within range.

Plan Brief updated: Added to success criteria: "The article includes a 3-question framework the reader can use immediately."

Proceed to Ship.

Step 5: Ship phase

Instruction given to agent

Review the final draft against the Plan Brief. Confirm all success criteria are met. List anything that is not.

Reference files: Final draft, Plan Brief (updated)

Output from agent

Success criterionStatusNote
Clear, testable argumentMetReactive vs. proactive AI use — stated in paragraph 1
Every section has a concrete exampleMetTwo code examples, both copy-able
Applicable the same dayMet3-question framework is immediately usable
No specific AI tool namedMetConfirmed — no tool names in the draft
3-question framework includedMetSection 3

Word count: 1,440. All constraints met.

Human decision

All criteria met. This goes live. Published to personal blog, added to newsletter, shared in the developer community where the original problem surfaced during Research.

Confirmed live: opened the URL in an incognito window. Article loads. Code examples render correctly.

Learnings (captured for next cycle)

  • The Plan Validation gate saved real time — the agent's reframing of the argument ("reactive vs. proactive") made the opening stronger before a word was written
  • "Tool-agnostic" was the right call but created a constraint that required more concrete examples to compensate — factor this in earlier next time
  • The 3-question framework emerged from the Build, not the Plan. This is normal (Build to learn). Updating the Plan Brief mid-build kept it honest
  • Next cycle idea: a follow-up article specifically on the 3-question framework

What this example demonstrates

PrincipleWhere it showed up
Clarity before actionResearch gate prevented planning in the wrong direction
Build to learnThe 3-question framework emerged during writing, not planning
Reality is the only validatorShipped at "good enough" — only publishing would show if the argument landed
Gates reduce cost, not momentumPlan Validation caught a weak argument before hours of writing
The brief is your compassPlan Brief was updated mid-build to stay honest
AI executes. Human decides.At every gate, the human read the output and made the call — proceed, iterate, or cut

The full cycle at a glance

[Research] → Plan → [Plan Validation] → Build → Ship

Each arrow is a human decision: read the output, judge it, decide what comes next.

Escenario: Quieres escribir un artículo titulado "Cómo usar IA para escribir mejor código" y publicarlo en tu blog. Tienes opiniones sobre el tema pero no estás seguro de si el enfoque es realmente útil o si el artículo ya existe cien veces.

[Research] → Plan → [Plan Validation] → Build → Ship

Cómo leer este ejemplo

Cada paso muestra qué se le dio a un agente como instrucción, qué devolvió el agente como resultado, y qué decidió el humano basándose en ese resultado. El agente puede ser tú, un colaborador, o una IA — la estructura es la misma en cualquier caso. Las compuertas son donde el humano lee el resultado y decide si proceder. Esa decisión nunca se omite.

Paso 1: Compuerta de Investigación

Instrucción dada al agente

¿Qué ya existe sobre el tema "IA y escribir mejor código"? ¿Hay un ángulo o audiencia específica desatendida? Dedica no más de 45 minutos.

Resultado del agente

  • La mayoría de los artículos existentes caen en dos categorías: (1) piezas de hype de alto nivel ("la IA reemplazará a los desarrolladores"), o (2) tutoriales específicos de herramientas ("cómo usar Copilot")
  • Muy pocos abordan el cambio de mentalidad y flujo de trabajo — no solo las herramientas
  • La audiencia más desatendida: desarrolladores de nivel medio que ya usan herramientas de IA pero sienten que no están obteniendo el beneficio completo
  • Queja común encontrada en foros: "Uso Copilot pero siento que solo estoy aceptando código que no entiendo"
  • Ángulo propuesto: usar IA para escribir mejor código, no herramientas de IA para programar — el enfoque es en que el desarrollador mejore, no en la herramienta que se usa

Decisión humana

El ángulo es real y desatendido. El lector objetivo ya tiene las herramientas — necesita un modelo mental para usarlas intencionalmente. Proceder a Planificar.

Paso 2: Fase de Planificar

Instrucción dada al agente

Usando los hallazgos de la investigación, redacta un Plan Brief para este artículo.

Archivos de referencia: Hallazgos de investigación del Paso 1

Resultado del agente

Plan Brief

Problema
Los desarrolladores de nivel medio usan herramientas de IA para programar pero se sienten pasivos y dependientes — aceptan sugerencias sin entenderlas completamente, lo que erosiona sus propias habilidades con el tiempo.

Audiencia
Desarrolladores de nivel medio que ya usan herramientas de IA para programar pero sienten que no están obteniendo el beneficio completo.

Objetivo
Escribir un artículo práctico que dé a los desarrolladores un modelo mental para usar la IA como compañero de pensamiento, no como generador de código.

Apetito
Una sesión de escritura enfocada (medio día). Si el artículo no puede completarse en ese tiempo, reducir el alcance — no extender el tiempo.

Restricciones

  • Longitud objetivo: 1,000–1,500 palabras (suficiente para ser útil, corto suficiente para ser leído)
  • Debe ser práctico, no teórico — cada punto necesita un ejemplo concreto
  • Sin contenido de pago, sin promoción de productos
  • Agnóstico en cuanto a herramientas: no se nombra ninguna herramienta de IA específica

Criterios de éxito

  • El artículo tiene un argumento claro y comprobable (no solo consejos)
  • Cada sección incluye un ejemplo concreto y copiable
  • Un desarrollador de nivel medio que lo lea puede aplicar la idea principal el mismo día
  • No se menciona ninguna herramienta de IA específica por nombre

Suposición central
El desarrollador ya tiene herramientas de IA. El problema no es la adopción — es saber cómo usarlas intencionalmente.

Trampas a evitar
No comparar herramientas de IA ni comparar resultados — ese es un artículo diferente.

Fuera de alcance

  • Comparaciones o recomendaciones de herramientas de IA
  • Introducción para principiantes a herramientas de IA para programar
  • Opinión sobre si la IA reemplazará a los desarrolladores

Decisión humana

El brief es sólido pero la oración del objetivo es vaga ("modelo mental" es abstracto). Proceder a Validación del Plan antes de escribir.

Paso 3: Compuerta de Validación del Plan

Instrucción dada al agente

Lee este Plan Brief. Dime con tus propias palabras: ¿de qué trata este artículo, qué argumenta, y qué cortarías si tuviera que ser un 20% más corto?

Archivos de referencia: Plan Brief del Paso 2

Resultado del agente

  • "Trata sobre usar la IA activamente, no pasivamente — como tratarla como un programador en pareja en lugar de autocompletar."
  • "El argumento es: la mayoría de las personas están usando la IA de forma reactiva (aceptar/rechazar). Hay una mejor manera: uso proactivo."
  • "Cortaría la restricción de no mencionar herramientas — podría hacer que los ejemplos se sientan vagos."

Decisión humana

La articulación del argumento por parte del agente ("uso reactivo vs. proactivo de la IA") es más precisa que lo que estaba en el Plan Brief. La restricción agnóstica en cuanto a herramientas se mantiene — pero significa que los ejemplos necesitan ser extra concretos para compensar. Actualizar el brief antes de construir.

Cambios realizados al Plan Brief:

  • Objetivo actualizado: "Escribir un artículo práctico que argumente a favor del uso proactivo de la IA sobre el uso reactivo, y dé a los desarrolladores un marco concreto para el cambio."
  • Restricción agregada: "Los ejemplos deben ser a nivel de código y específicos, ya que no se usarán nombres de herramientas."

Proceder a Construir.

Paso 4: Fase de Construir

Instrucción dada al agente

Escribe el artículo según este Plan Brief. El argumento es uso reactivo vs. proactivo de la IA. Cada sección necesita un ejemplo de código concreto. Objetivo 1,000–1,500 palabras. Sin nombres de herramientas.

Archivos de referencia: Plan Brief actualizado del Paso 3, Guía de estilo de escritura personal

Resultado del agente

Borrador producido con la siguiente estructura:

  1. Gancho: la trampa de "aceptar/rechazar" — por qué la mayoría de los desarrolladores está usando la IA reactivamente
  2. Sección 1: Cómo se ve el uso reactivo de la IA (ejemplo de código: aceptar una función que no entiendes)
  3. Sección 2: Cómo se ve el uso proactivo de la IA (ejemplo de código: usar la IA para explicar, luego mejorar, luego apropiarse)
  4. Sección 3: Un marco de 3 preguntas para ejecutar antes de aceptar cualquier resultado de IA
  5. Cierre: el cambio de la IA como atajo a la IA como compañero de pensamiento

El borrador resultó en 1,650 palabras.

Decisión humana — verificación a mitad de construcción

El marco de 3 preguntas en la Sección 3 no existía en el Plan Brief — surgió durante la escritura. Sirve directamente al objetivo, así que se mantiene. Plan Brief actualizado para reflejarlo como una adición a los criterios de éxito.

Se cortaron 200 palabras de la Sección 2 (el ejemplo "reactivo" estaba sobre-explicado). Recuento final de palabras: 1,440 — dentro del rango.

Plan Brief actualizado: Agregado a criterios de éxito: "El artículo incluye un marco de 3 preguntas que el lector puede usar inmediatamente."

Proceder a Lanzar.

Paso 5: Fase de Lanzar

Instrucción dada al agente

Revisa el borrador final contra el Plan Brief. Confirma que todos los criterios de éxito están cumplidos. Lista cualquier cosa que no lo esté.

Archivos de referencia: Borrador final, Plan Brief (actualizado)

Resultado del agente

Criterio de éxitoEstadoNota
Argumento claro y comprobableCumplidoUso reactivo vs. proactivo de la IA — declarado en el párrafo 1
Cada sección tiene un ejemplo concretoCumplidoDos ejemplos de código, ambos copiables
Aplicable el mismo díaCumplidoEl marco de 3 preguntas es inmediatamente usable
Sin herramienta de IA específica nombradaCumplidoConfirmado — sin nombres de herramientas en el borrador
Marco de 3 preguntas incluidoCumplidoSección 3

Recuento de palabras: 1,440. Todas las restricciones cumplidas.

Decisión humana

Todos los criterios cumplidos. Esto sale en vivo. Publicado en el blog personal, agregado al boletín, compartido en la comunidad de desarrolladores donde el problema original surgió durante la Investigación.

Confirmado en vivo: abrió la URL en una ventana de incógnito. El artículo carga. Los ejemplos de código se renderizan correctamente.

Aprendizajes (capturados para el próximo ciclo)

  • La compuerta de Validación del Plan ahorró tiempo real — la reformulación del argumento por parte del agente ("reactivo vs. proactivo") hizo la apertura más sólida antes de escribir una palabra
  • "Agnóstico en cuanto a herramientas" fue la decisión correcta pero creó una restricción que requirió ejemplos más concretos para compensar — considerarlo antes la próxima vez
  • El marco de 3 preguntas emergió de la Construcción, no del Plan. Esto es normal (Construir para aprender). Actualizar el Plan Brief a mitad de construcción lo mantuvo honesto
  • Idea para el próximo ciclo: un artículo de seguimiento específicamente sobre el marco de 3 preguntas

Qué demuestra este ejemplo

PrincipioDónde apareció
Claridad antes de acciónLa compuerta de Investigación evitó planificar en la dirección equivocada
Construir para aprenderEl marco de 3 preguntas surgió durante la escritura, no la planificación
La realidad es el único validadorLanzado en "suficientemente bueno" — solo publicar mostraría si el argumento aterrizó
Las compuertas reducen el costo, no el impulsoLa Validación del Plan detectó un argumento débil antes de horas de escritura
El brief es tu brújulaEl Plan Brief se actualizó a mitad de construcción para mantenerse honesto
La IA ejecuta. El humano decide.En cada compuerta, el humano leyó el resultado y tomó la decisión — proceder, iterar o cortar

El ciclo completo de un vistazo

[Research] → Plan → [Plan Validation] → Build → Ship

Cada flecha es una decisión humana: leer el resultado, juzgarlo, decidir qué viene después.