Skip to content Skip to footer

Google revela “Nano-Banana”, su mayor salto en edición de imágenes con IA

La compañía integra un nuevo modelo —Gemini 2.5 Flash Image, apodado “Nano-Banana”— en la app de Gemini y en sus APIs, prometiendo ediciones más precisas, mezcla de imágenes y mayor consistencia de personajes.

27 de agosto de 2025

Qué es “Nano-Banana”

“Nano-Banana” es el nombre con el que Google y su comunidad se refieren al nuevo modelo de generación y edición de imágenes integrado en Gemini, oficialmente llamado Gemini 2.5 Flash Image. Permite crear imágenes desde texto y, sobre todo, realizar ediciones de precisión por instrucciones: borrar objetos, cambiar estilos o poses y mantener la identidad de personas y mascotas en múltiples tomas. Fuente (Google Developers Blog)

Qué hace diferente a este modelo

  • Edición guiada por texto: transformaciones locales (por ejemplo, “difumina el fondo” o “quita el vaso”).
  • Consistencia de personajes: conserva rasgos de sujetos en escenas y estilos distintos.
  • Fusión multi-imagen: combina objetos/escenas de varias fotos en un único resultado.
  • Conocimiento del mundo: mejor comprensión semántica para ediciones más coherentes.

Estas capacidades apuntan a flujos creativos más rápidos para marketing, producto y contenidos. Fuente (Blog de Google)  |  Ficha del modelo (Google DeepMind)

Disponibilidad y precio

El editor actualizado está disponible en la app de Gemini (usuarios gratuitos y de pago) y para desarrolladores a través de la Gemini API, Google AI Studio y Vertex AI. Para uso programático, Google indica un precio orientativo de ~US$0,039 por imagen (1290 tokens de salida) dentro de la tarifa de Gemini 2.5 Flash. Detalles técnicos y precios  |  Anuncio en Vertex AI

Señalización de contenidos y seguridad

Google afirma que todas las imágenes creadas o editadas con el modelo incluyen marcas de agua visibles e invisibles (SynthID) para identificar contenido generado por IA y promover un ecosistema más seguro. Política de marcas de agua

Contexto del sector

Con este lanzamiento, Google refuerza su posición en la edición generativa frente a rivales del sector. Medios especializados señalan que el foco no está solo en generar desde cero, sino en editar con control y fidelidad, un terreno clave para uso profesional. También subrayan debates sobre riesgos de desinformación y la necesidad de salvaguardas. Cobertura (Axios)  |  Cobertura (TechCrunch)

Cómo probarlo

  1. Abrir la app de Gemini (web o móvil) y acceder al editor de imágenes.
  2. Subir una foto o empezar con un prompt (“Quita el objeto del fondo”, “Cambia la chaqueta a rojo”).
  3. Aplicar ediciones paso a paso y descargar el resultado.
  4. Si eres desarrollador, explorar el modelo en Google AI Studio o integrarlo vía API/Vertex.

Redacción estilo informativo, inspirada en guías editoriales de prensa internacional.

Flux