Gemini ha reducido los límites de API gratuitos, esto es lo que debe usar en su lugar

He estado usando el nivel gratuito de la API de Google Gemini para generar descripciones sarcásticas de los visitantes capturados en mi timbre con video en Home Assistant. Funcionó perfectamente hasta hace muy poco. Desafortunadamente, Google ha reducido el número de solicitudes gratuitas para muchos de sus modelos, con Gemini 2.5 Flash reducido a sólo 20 solicitudes por día. Si ha tenido el mismo problema, esto es lo que puede intentar.

HTG finalizado el 20 de diciembre

HTG Wrapped 2025: 24 días de tecnología

24 días de nuestro hardware, gadgets y tecnología favoritos

Cambiar a un modelo diferente

Originalmente estaba usando el modelo Gemini 1.5 Flash para las descripciones de mis timbres con video generados por IA, pero pasé al modelo superior Gemini 2.5 Flash. Desafortunadamente, la automatización se activa regularmente más de 20 veces al día y los límites de velocidad actuales significan que la automatización pronto falla. Sin embargo, si bien muchos modelos Gemini se han visto muy limitados, algunos todavía tienen límites razonables.

Por ejemplo, el modelo Gemini Robotics-ER 1.5 Preview tiene actualmente un límite de 250 solicitudes por día. Este es un modelo destinado a llevar capacidades de IA agente a la robótica, pero puede usarlo para otros fines. Probé esto con la automatización de mis descripciones sarcásticas de timbre y pude generar un resultado razonable.

Este modelo Gemini Robotics-ER 1.5 es lo suficientemente bueno como para usarlo en la automatización del timbre de mi puerta, pero en realidad esto solo está agravando el problema en el futuro. Dado que se trata de un modelo preliminar, es probable que los límites también se reduzcan en algún momento.

Pruebe GroqCloud

Otra opción es GroqCloud. GroqCloud es una plataforma de inferencia de IA que ejecuta modelos de IA populares en hardware potente. Le brinda acceso remoto a una amplia gama de modelos que tienen límites de velocidad razonables y funcionan a la velocidad del rayo.

Por ejemplo, pude usar el modelo meta-llama/llama-4-maverick-17b-128e-instruct para reemplazar Gemini en la descripción de mi timbre y los resultados fueron muy buenos. Actualmente, ese modelo tiene un límite de hasta 1.000 solicitudes o 500.000 tokens por día de forma gratuita, lo cual es más que suficiente para mis necesidades.

GroqCloud funciona perfectamente en la integración de LLM Vision que uso en Home Assistant, y si bien no existe un agente de conversación nativo de Groq para el asistente de voz Assist, existe una integración HACS que puede usar para hacer que su asistente de voz Home Assistant sea más inteligente usando GroqCloud.

Sin embargo, una vez más, esto depende de que GroqCloud mantenga los límites actuales del nivel gratuito. No hay nada que diga que Groq no reducirá también los límites de tasas en algún momento en el futuro, por lo que es posible que desee agregar un modelo alternativo con un proveedor diferente.

Organizar un LLM o VLM local

Si no desea que le quiten repentinamente el acceso gratuito a un modelo de IA, puede considerar organizar un LLM local usted mismo. Esto le otorga un control firme, sin que ninguno de sus datos salga de su hogar ni se utilice para entrenar modelos de IA, y sin preocuparse por los límites de tarifas o las tarifas de API.

Organizar un LLM no es gratuito en el sentido más estricto, ya que se paga por el hardware y la electricidad, pero puede resultar más económico a largo plazo. El mayor problema es si su hardware es lo suficientemente potente como para ejecutar un LLM que pueda hacer el trabajo.

Por ejemplo, la automatización de mi timbre implica analizar una imagen tomada con una cámara de timbre y describir lo que contiene la imagen. La ejecución de un modelo de lenguaje de visión (VLM) de tamaño mediano como Llama 3.2 Vision 11B generalmente requiere al menos 12 GB de VRAM para un rendimiento razonable, por lo que una GPU de consumo como una RTX 3060 de 12 GB debería poder manejarlo.

Crédito: Maryia_K/Shutterstock.com

Sin embargo, si no tiene el hardware necesario, las respuestas tardarán mucho tiempo en generarse. Esto no sería de ninguna utilidad para la automatización de mi timbre, que requiere notificaciones oportunas.

Si tiene el hardware para ejecutar un LLM o VLM local que sea lo suficientemente rápido como para ser útil, definitivamente vale la pena considerarlo. Sus datos nunca necesitan salir de su hogar y usted no tiene que preocuparse por lo que las principales empresas de inteligencia artificial aprenden sobre usted a partir de sus indicaciones.

Aguanta y paga por lo que usas

Puede que no te guste esta última opción, pero es una que debes considerar. Las empresas de inteligencia artificial están gastando cantidades increíbles de dinero en desarrollar sus modelos y comprar GPU. Esto no es sostenible a largo plazo y los ingresos tienen que venir de alguna parte.

No es realista esperar que empresas como Google ofrezcan acceso ilimitado a sus modelos de forma gratuita. En algún momento van a empezar a hacernos pagar, y eso parece haber empezado.

Crédito: Fotografía de Andy Dean/Shutterstock.com

Los costos de API no son increíblemente altos; El precio de nivel 1 de Gemini 2.5 Flash es de $0,30 por millón de tokens para entradas de texto, imágenes y video, y de $2,50 por millón de tokens para la salida. Incluso si la automatización de mi timbre se activara varias veces al día, me costaría sólo unos pocos centavos al mes. Incluso usando Gemini 3 Pro Preview, el mejor y más caro modelo de Google (lo cual sería una completa exageración), solo alcanzaría alrededor de $2 por mes.

Tampoco es necesario que se limite a un solo proveedor. Utilizando agregadores como OpenRouter, puedes acceder a una amplia gama de modelos de diferentes proveedores y pagar todo tu uso en una única ubicación.

Los niveles gratuitos ofrecidos por las empresas de IA en realidad solo estaban destinados a probar modelos, y no sorprende que los límites se hayan reducido drásticamente. Actualmente, no te costará mucho pagar por lo que usas.


Hubiera sido bueno si Google hubiera avisado sobre la reducción de los límites de sus API gratuitas, en lugar de que muchas personas solo se enteraran cuando sus automatizaciones dejaron de funcionar. Sin embargo, el cambio fue bastante inevitable. La buena noticia es que todavía existen alternativas gratuitas que puedes usar, y si decides pagar, no te arruinarás.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept