29 abr 2024

Guía sobre cómo usar Google Gemini Pro - ¿Puedo ejecutarlo localmente?

Una guía simple y útil sobre cómo utilizar los modelos de IA Google Gemini, incluyendo el avanzado Gemini 1.5 Pro.

Ejecutar Gemini 1.5

Regístrese en solo un minuto.

¿Qué es Gemini AI?

Gemini es un modelo de IA desarrollado por la corporación Google. Gemini fue creado por varios equipos en Google, incluidos los de Google Research. Está diseñado para ser multimodal, lo que significa que puede trabajar y combinar diferentes tipos de información como texto, código, audio, imágenes y video. Esto le permite entender y manejar varios tipos de datos fácilmente.

Está disponible en tres versiones (sujetas a cambios):

  • Gemini 1.0 Ultra: Esta versión inicial estableció nuevos estándares en varios benchmarks, incluido el procesamiento de texto y codificación.

  • Gemini Nano: Adaptado para dispositivos móviles, está disponible en dos versiones: Nano-1 (1.8 mil millones de parámetros) y Nano-2 (3.25 mil millones de parámetros). Estará disponible para desarrolladores de Android a través de Android AICore.

  • Gemini 1.5 Pro: El último modelo de tamaño mediano de Google AI que maneja tareas relacionadas con texto, imágenes, videos, audio y código. Cuenta con una ventana de contexto largo que puede procesar hasta 1 millón de tokens, un avance significativo desde los 32,000 tokens de Gemini 1.0. Este modelo fue lanzado a los clientes de Google Cloud en AI Studio y Vertex AI en diciembre de 2023.

Gemini 1.5 Pro es especialmente notable por su capacidad mejorada para manejar grandes cantidades de datos de diversas fuentes. Puede realizar tareas como extraer títulos de libros de imágenes y videos, resumir textos extensos y generar datos JSON a partir de código.

Acceso a Gemini AI

Aunque no es posible ejecutar modelos de IA Gemini localmente sin internet, ahora puedes usar un modelo de IA superior de Google que hace cosas asombrosas. Está disponible para que lo uses. Puedes configurarlo fácilmente y ejecutarlo directamente en tu propia computadora.

Obtener la API de Gemini

Primero, necesitarás una clave API de Google. Ve a la página de IA de Google, encuentra la sección Google Studio y haz clic en "Obtener la clave API." Elige "Crear tu clave API" en un nuevo proyecto y estás listo para empezar.

Luego, abre tu editor de código (VScode, por ejemplo, podría ser una buena elección) y configura un entorno virtual de Python en una nueva carpeta:

  1. Crea el entorno virtual:

python -m venv venv
source venv/bin/activate
  1. Ahora, crea un archivo llamado requirements.txt y enumera estos paquetes:

google-generativeai
streamlit
dotenv

El paquete google-generativeai te permite usar el modelo Gemini de Google, y streamlit te ayuda a construir aplicaciones web fácilmente.

  1. Instala los paquetes:

bashCopy codepip install -r requirements.txt
  1. Pega tu clave API en un archivo llamado .env así:

makefileCopy codeGOOGLE_API_KEY="your-API-key"

Ahora que todo está configurado, ¡puedes empezar con la parte divertida: programar!

Existen dos métodos para implementar esto, veamos ambos:

Método 1: Ejecutar Gemini con Python Notebook

Esta es la primera forma de ejecutar el modelo Gemini AI localmente en tu computadora.

Ejecuta los siguientes pasos en un cuaderno de Python:

  1. Importa los paquetes necesarios:

import textwrap
import google.generativeai as genai
import os
from dotenv import load_dotenv
from IPython.display import display, Markdown


  1. Escribe una función para mostrar el texto de manera agradable:

def to_markdown(text):
    text = text.replace('•', '  *')
    return Markdown(textwrap.indent(text, '> ', predicate=lambda _: True))


  1. Carga tu clave API:

load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)


  1. Verifica los modelos Gemini disponibles:

for model in genai.list_models():
    if 'generateContent' in model.supported_generation_methods:
        print(model.name)


  1. Selecciona un modelo que desees usar:

# Selecting a model 
model = genai.GenerativeModel('gemini-pro')


  1. Proporciona una señal al modelo para obtener la respuesta:

# Write any prompt of your choice
response = model.generate_content("YOUR PROMPT")
to_markdown(response.text)


  1. Para ver la respuesta en secciones (fragmentos) o una línea a la vez:

for chunk in response:
    print(chunk.text)
    print("_" * 80)


Método 2: Ejecutar Gemini Usando Streamlit

Primero, crea un archivo de Python llamado gemini.py:

from dotenv import load_dotenv
import os
import google.generativeai as genai
import streamlit as st
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
model = genai.GenerativeModel('gemini-pro')
def generate_content(prompt):
    response = model.generate_content(prompt)
    return response.text
st.title('Gemini AI Text Generator')
prompt = st.text_input('Enter a prompt:')
if st.button('Generate'):
    response = generate_content(prompt)
    st.write(response)

En esta aplicación de Streamlit, primero recuperas la clave API de un archivo .env y la cargas en la variable GOOGLE_API_KEY.

Luego, creas una función sencilla llamada generate_content que toma la entrada del usuario (señal), la pasa al modelo y luego devuelve el texto de respuesta.

En la interfaz de Streamlit, hay un cuadro de entrada de texto proporcionado por st.text_input y un botón 'Generar'. Cuando presionas el botón, llama a la función generate_content y muestra el texto de respuesta debajo del campo de entrada.

Esto es lo que verás en la aplicación de Streamlit cuando se esté ejecutando.


Usa Gemini 1.5 Pro con ChaLabs

Nos complace informarte que puedes comenzar a usar fácilmente los Modelos Gemini de Google, incluido el último Gemini 1.5 Pro, con nuestra herramienta de IA ChatLabs.

ChatLabs es una plataforma avanzada y fácil de usar que es compatible con más de 30 LLMs más populares, incluidos GPT-4, Gemini 1.5, Llama 3, Mistral 8x22B, Claude Opus y muchos otros.

Para usar todos los mejores modelos de IA en un solo lugar, simplemente ve a https://labs.writingmate.ai y regístrate.


Enlaces útiles y artículos relacionados

Publicación del blog de desarrolladores de Google sobre Gemini 1.5
SDK de Google AI para Android
Cómo ejecutar Mistral 8x22B localmente en tu computadora
Cómo ejecutar Llama 3 localmente en tu PC
Guía para ejecutar Llama 2 localmente
Cómo ejecutar OpenELM de Apple

Stay up to date
on the latest AI news by ChatLabs

29 abr 2024

Guía sobre cómo usar Google Gemini Pro - ¿Puedo ejecutarlo localmente?

Una guía simple y útil sobre cómo utilizar los modelos de IA Google Gemini, incluyendo el avanzado Gemini 1.5 Pro.

Ejecutar Gemini 1.5

Regístrese en solo un minuto.

¿Qué es Gemini AI?

Gemini es un modelo de IA desarrollado por la corporación Google. Gemini fue creado por varios equipos en Google, incluidos los de Google Research. Está diseñado para ser multimodal, lo que significa que puede trabajar y combinar diferentes tipos de información como texto, código, audio, imágenes y video. Esto le permite entender y manejar varios tipos de datos fácilmente.

Está disponible en tres versiones (sujetas a cambios):

  • Gemini 1.0 Ultra: Esta versión inicial estableció nuevos estándares en varios benchmarks, incluido el procesamiento de texto y codificación.

  • Gemini Nano: Adaptado para dispositivos móviles, está disponible en dos versiones: Nano-1 (1.8 mil millones de parámetros) y Nano-2 (3.25 mil millones de parámetros). Estará disponible para desarrolladores de Android a través de Android AICore.

  • Gemini 1.5 Pro: El último modelo de tamaño mediano de Google AI que maneja tareas relacionadas con texto, imágenes, videos, audio y código. Cuenta con una ventana de contexto largo que puede procesar hasta 1 millón de tokens, un avance significativo desde los 32,000 tokens de Gemini 1.0. Este modelo fue lanzado a los clientes de Google Cloud en AI Studio y Vertex AI en diciembre de 2023.

Gemini 1.5 Pro es especialmente notable por su capacidad mejorada para manejar grandes cantidades de datos de diversas fuentes. Puede realizar tareas como extraer títulos de libros de imágenes y videos, resumir textos extensos y generar datos JSON a partir de código.

Acceso a Gemini AI

Aunque no es posible ejecutar modelos de IA Gemini localmente sin internet, ahora puedes usar un modelo de IA superior de Google que hace cosas asombrosas. Está disponible para que lo uses. Puedes configurarlo fácilmente y ejecutarlo directamente en tu propia computadora.

Obtener la API de Gemini

Primero, necesitarás una clave API de Google. Ve a la página de IA de Google, encuentra la sección Google Studio y haz clic en "Obtener la clave API." Elige "Crear tu clave API" en un nuevo proyecto y estás listo para empezar.

Luego, abre tu editor de código (VScode, por ejemplo, podría ser una buena elección) y configura un entorno virtual de Python en una nueva carpeta:

  1. Crea el entorno virtual:

python -m venv venv
source venv/bin/activate
  1. Ahora, crea un archivo llamado requirements.txt y enumera estos paquetes:

google-generativeai
streamlit
dotenv

El paquete google-generativeai te permite usar el modelo Gemini de Google, y streamlit te ayuda a construir aplicaciones web fácilmente.

  1. Instala los paquetes:

bashCopy codepip install -r requirements.txt
  1. Pega tu clave API en un archivo llamado .env así:

makefileCopy codeGOOGLE_API_KEY="your-API-key"

Ahora que todo está configurado, ¡puedes empezar con la parte divertida: programar!

Existen dos métodos para implementar esto, veamos ambos:

Método 1: Ejecutar Gemini con Python Notebook

Esta es la primera forma de ejecutar el modelo Gemini AI localmente en tu computadora.

Ejecuta los siguientes pasos en un cuaderno de Python:

  1. Importa los paquetes necesarios:

import textwrap
import google.generativeai as genai
import os
from dotenv import load_dotenv
from IPython.display import display, Markdown


  1. Escribe una función para mostrar el texto de manera agradable:

def to_markdown(text):
    text = text.replace('•', '  *')
    return Markdown(textwrap.indent(text, '> ', predicate=lambda _: True))


  1. Carga tu clave API:

load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)


  1. Verifica los modelos Gemini disponibles:

for model in genai.list_models():
    if 'generateContent' in model.supported_generation_methods:
        print(model.name)


  1. Selecciona un modelo que desees usar:

# Selecting a model 
model = genai.GenerativeModel('gemini-pro')


  1. Proporciona una señal al modelo para obtener la respuesta:

# Write any prompt of your choice
response = model.generate_content("YOUR PROMPT")
to_markdown(response.text)


  1. Para ver la respuesta en secciones (fragmentos) o una línea a la vez:

for chunk in response:
    print(chunk.text)
    print("_" * 80)


Método 2: Ejecutar Gemini Usando Streamlit

Primero, crea un archivo de Python llamado gemini.py:

from dotenv import load_dotenv
import os
import google.generativeai as genai
import streamlit as st
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
model = genai.GenerativeModel('gemini-pro')
def generate_content(prompt):
    response = model.generate_content(prompt)
    return response.text
st.title('Gemini AI Text Generator')
prompt = st.text_input('Enter a prompt:')
if st.button('Generate'):
    response = generate_content(prompt)
    st.write(response)

En esta aplicación de Streamlit, primero recuperas la clave API de un archivo .env y la cargas en la variable GOOGLE_API_KEY.

Luego, creas una función sencilla llamada generate_content que toma la entrada del usuario (señal), la pasa al modelo y luego devuelve el texto de respuesta.

En la interfaz de Streamlit, hay un cuadro de entrada de texto proporcionado por st.text_input y un botón 'Generar'. Cuando presionas el botón, llama a la función generate_content y muestra el texto de respuesta debajo del campo de entrada.

Esto es lo que verás en la aplicación de Streamlit cuando se esté ejecutando.


Usa Gemini 1.5 Pro con ChaLabs

Nos complace informarte que puedes comenzar a usar fácilmente los Modelos Gemini de Google, incluido el último Gemini 1.5 Pro, con nuestra herramienta de IA ChatLabs.

ChatLabs es una plataforma avanzada y fácil de usar que es compatible con más de 30 LLMs más populares, incluidos GPT-4, Gemini 1.5, Llama 3, Mistral 8x22B, Claude Opus y muchos otros.

Para usar todos los mejores modelos de IA en un solo lugar, simplemente ve a https://labs.writingmate.ai y regístrate.


Enlaces útiles y artículos relacionados

Publicación del blog de desarrolladores de Google sobre Gemini 1.5
SDK de Google AI para Android
Cómo ejecutar Mistral 8x22B localmente en tu computadora
Cómo ejecutar Llama 3 localmente en tu PC
Guía para ejecutar Llama 2 localmente
Cómo ejecutar OpenELM de Apple

Stay up to date
on the latest AI news by ChatLabs

29 abr 2024

Guía sobre cómo usar Google Gemini Pro - ¿Puedo ejecutarlo localmente?

Una guía simple y útil sobre cómo utilizar los modelos de IA Google Gemini, incluyendo el avanzado Gemini 1.5 Pro.

Ejecutar Gemini 1.5

Regístrese en solo un minuto.

¿Qué es Gemini AI?

Gemini es un modelo de IA desarrollado por la corporación Google. Gemini fue creado por varios equipos en Google, incluidos los de Google Research. Está diseñado para ser multimodal, lo que significa que puede trabajar y combinar diferentes tipos de información como texto, código, audio, imágenes y video. Esto le permite entender y manejar varios tipos de datos fácilmente.

Está disponible en tres versiones (sujetas a cambios):

  • Gemini 1.0 Ultra: Esta versión inicial estableció nuevos estándares en varios benchmarks, incluido el procesamiento de texto y codificación.

  • Gemini Nano: Adaptado para dispositivos móviles, está disponible en dos versiones: Nano-1 (1.8 mil millones de parámetros) y Nano-2 (3.25 mil millones de parámetros). Estará disponible para desarrolladores de Android a través de Android AICore.

  • Gemini 1.5 Pro: El último modelo de tamaño mediano de Google AI que maneja tareas relacionadas con texto, imágenes, videos, audio y código. Cuenta con una ventana de contexto largo que puede procesar hasta 1 millón de tokens, un avance significativo desde los 32,000 tokens de Gemini 1.0. Este modelo fue lanzado a los clientes de Google Cloud en AI Studio y Vertex AI en diciembre de 2023.

Gemini 1.5 Pro es especialmente notable por su capacidad mejorada para manejar grandes cantidades de datos de diversas fuentes. Puede realizar tareas como extraer títulos de libros de imágenes y videos, resumir textos extensos y generar datos JSON a partir de código.

Acceso a Gemini AI

Aunque no es posible ejecutar modelos de IA Gemini localmente sin internet, ahora puedes usar un modelo de IA superior de Google que hace cosas asombrosas. Está disponible para que lo uses. Puedes configurarlo fácilmente y ejecutarlo directamente en tu propia computadora.

Obtener la API de Gemini

Primero, necesitarás una clave API de Google. Ve a la página de IA de Google, encuentra la sección Google Studio y haz clic en "Obtener la clave API." Elige "Crear tu clave API" en un nuevo proyecto y estás listo para empezar.

Luego, abre tu editor de código (VScode, por ejemplo, podría ser una buena elección) y configura un entorno virtual de Python en una nueva carpeta:

  1. Crea el entorno virtual:

python -m venv venv
source venv/bin/activate
  1. Ahora, crea un archivo llamado requirements.txt y enumera estos paquetes:

google-generativeai
streamlit
dotenv

El paquete google-generativeai te permite usar el modelo Gemini de Google, y streamlit te ayuda a construir aplicaciones web fácilmente.

  1. Instala los paquetes:

bashCopy codepip install -r requirements.txt
  1. Pega tu clave API en un archivo llamado .env así:

makefileCopy codeGOOGLE_API_KEY="your-API-key"

Ahora que todo está configurado, ¡puedes empezar con la parte divertida: programar!

Existen dos métodos para implementar esto, veamos ambos:

Método 1: Ejecutar Gemini con Python Notebook

Esta es la primera forma de ejecutar el modelo Gemini AI localmente en tu computadora.

Ejecuta los siguientes pasos en un cuaderno de Python:

  1. Importa los paquetes necesarios:

import textwrap
import google.generativeai as genai
import os
from dotenv import load_dotenv
from IPython.display import display, Markdown


  1. Escribe una función para mostrar el texto de manera agradable:

def to_markdown(text):
    text = text.replace('•', '  *')
    return Markdown(textwrap.indent(text, '> ', predicate=lambda _: True))


  1. Carga tu clave API:

load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)


  1. Verifica los modelos Gemini disponibles:

for model in genai.list_models():
    if 'generateContent' in model.supported_generation_methods:
        print(model.name)


  1. Selecciona un modelo que desees usar:

# Selecting a model 
model = genai.GenerativeModel('gemini-pro')


  1. Proporciona una señal al modelo para obtener la respuesta:

# Write any prompt of your choice
response = model.generate_content("YOUR PROMPT")
to_markdown(response.text)


  1. Para ver la respuesta en secciones (fragmentos) o una línea a la vez:

for chunk in response:
    print(chunk.text)
    print("_" * 80)


Método 2: Ejecutar Gemini Usando Streamlit

Primero, crea un archivo de Python llamado gemini.py:

from dotenv import load_dotenv
import os
import google.generativeai as genai
import streamlit as st
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
model = genai.GenerativeModel('gemini-pro')
def generate_content(prompt):
    response = model.generate_content(prompt)
    return response.text
st.title('Gemini AI Text Generator')
prompt = st.text_input('Enter a prompt:')
if st.button('Generate'):
    response = generate_content(prompt)
    st.write(response)

En esta aplicación de Streamlit, primero recuperas la clave API de un archivo .env y la cargas en la variable GOOGLE_API_KEY.

Luego, creas una función sencilla llamada generate_content que toma la entrada del usuario (señal), la pasa al modelo y luego devuelve el texto de respuesta.

En la interfaz de Streamlit, hay un cuadro de entrada de texto proporcionado por st.text_input y un botón 'Generar'. Cuando presionas el botón, llama a la función generate_content y muestra el texto de respuesta debajo del campo de entrada.

Esto es lo que verás en la aplicación de Streamlit cuando se esté ejecutando.


Usa Gemini 1.5 Pro con ChaLabs

Nos complace informarte que puedes comenzar a usar fácilmente los Modelos Gemini de Google, incluido el último Gemini 1.5 Pro, con nuestra herramienta de IA ChatLabs.

ChatLabs es una plataforma avanzada y fácil de usar que es compatible con más de 30 LLMs más populares, incluidos GPT-4, Gemini 1.5, Llama 3, Mistral 8x22B, Claude Opus y muchos otros.

Para usar todos los mejores modelos de IA en un solo lugar, simplemente ve a https://labs.writingmate.ai y regístrate.


Enlaces útiles y artículos relacionados

Publicación del blog de desarrolladores de Google sobre Gemini 1.5
SDK de Google AI para Android
Cómo ejecutar Mistral 8x22B localmente en tu computadora
Cómo ejecutar Llama 3 localmente en tu PC
Guía para ejecutar Llama 2 localmente
Cómo ejecutar OpenELM de Apple

Stay up to date
on the latest AI news by ChatLabs

29 abr 2024

Guía sobre cómo usar Google Gemini Pro - ¿Puedo ejecutarlo localmente?

Una guía simple y útil sobre cómo utilizar los modelos de IA Google Gemini, incluyendo el avanzado Gemini 1.5 Pro.

Ejecutar Gemini 1.5

Regístrese en solo un minuto.

¿Qué es Gemini AI?

Gemini es un modelo de IA desarrollado por la corporación Google. Gemini fue creado por varios equipos en Google, incluidos los de Google Research. Está diseñado para ser multimodal, lo que significa que puede trabajar y combinar diferentes tipos de información como texto, código, audio, imágenes y video. Esto le permite entender y manejar varios tipos de datos fácilmente.

Está disponible en tres versiones (sujetas a cambios):

  • Gemini 1.0 Ultra: Esta versión inicial estableció nuevos estándares en varios benchmarks, incluido el procesamiento de texto y codificación.

  • Gemini Nano: Adaptado para dispositivos móviles, está disponible en dos versiones: Nano-1 (1.8 mil millones de parámetros) y Nano-2 (3.25 mil millones de parámetros). Estará disponible para desarrolladores de Android a través de Android AICore.

  • Gemini 1.5 Pro: El último modelo de tamaño mediano de Google AI que maneja tareas relacionadas con texto, imágenes, videos, audio y código. Cuenta con una ventana de contexto largo que puede procesar hasta 1 millón de tokens, un avance significativo desde los 32,000 tokens de Gemini 1.0. Este modelo fue lanzado a los clientes de Google Cloud en AI Studio y Vertex AI en diciembre de 2023.

Gemini 1.5 Pro es especialmente notable por su capacidad mejorada para manejar grandes cantidades de datos de diversas fuentes. Puede realizar tareas como extraer títulos de libros de imágenes y videos, resumir textos extensos y generar datos JSON a partir de código.

Acceso a Gemini AI

Aunque no es posible ejecutar modelos de IA Gemini localmente sin internet, ahora puedes usar un modelo de IA superior de Google que hace cosas asombrosas. Está disponible para que lo uses. Puedes configurarlo fácilmente y ejecutarlo directamente en tu propia computadora.

Obtener la API de Gemini

Primero, necesitarás una clave API de Google. Ve a la página de IA de Google, encuentra la sección Google Studio y haz clic en "Obtener la clave API." Elige "Crear tu clave API" en un nuevo proyecto y estás listo para empezar.

Luego, abre tu editor de código (VScode, por ejemplo, podría ser una buena elección) y configura un entorno virtual de Python en una nueva carpeta:

  1. Crea el entorno virtual:

python -m venv venv
source venv/bin/activate
  1. Ahora, crea un archivo llamado requirements.txt y enumera estos paquetes:

google-generativeai
streamlit
dotenv

El paquete google-generativeai te permite usar el modelo Gemini de Google, y streamlit te ayuda a construir aplicaciones web fácilmente.

  1. Instala los paquetes:

bashCopy codepip install -r requirements.txt
  1. Pega tu clave API en un archivo llamado .env así:

makefileCopy codeGOOGLE_API_KEY="your-API-key"

Ahora que todo está configurado, ¡puedes empezar con la parte divertida: programar!

Existen dos métodos para implementar esto, veamos ambos:

Método 1: Ejecutar Gemini con Python Notebook

Esta es la primera forma de ejecutar el modelo Gemini AI localmente en tu computadora.

Ejecuta los siguientes pasos en un cuaderno de Python:

  1. Importa los paquetes necesarios:

import textwrap
import google.generativeai as genai
import os
from dotenv import load_dotenv
from IPython.display import display, Markdown


  1. Escribe una función para mostrar el texto de manera agradable:

def to_markdown(text):
    text = text.replace('•', '  *')
    return Markdown(textwrap.indent(text, '> ', predicate=lambda _: True))


  1. Carga tu clave API:

load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)


  1. Verifica los modelos Gemini disponibles:

for model in genai.list_models():
    if 'generateContent' in model.supported_generation_methods:
        print(model.name)


  1. Selecciona un modelo que desees usar:

# Selecting a model 
model = genai.GenerativeModel('gemini-pro')


  1. Proporciona una señal al modelo para obtener la respuesta:

# Write any prompt of your choice
response = model.generate_content("YOUR PROMPT")
to_markdown(response.text)


  1. Para ver la respuesta en secciones (fragmentos) o una línea a la vez:

for chunk in response:
    print(chunk.text)
    print("_" * 80)


Método 2: Ejecutar Gemini Usando Streamlit

Primero, crea un archivo de Python llamado gemini.py:

from dotenv import load_dotenv
import os
import google.generativeai as genai
import streamlit as st
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
model = genai.GenerativeModel('gemini-pro')
def generate_content(prompt):
    response = model.generate_content(prompt)
    return response.text
st.title('Gemini AI Text Generator')
prompt = st.text_input('Enter a prompt:')
if st.button('Generate'):
    response = generate_content(prompt)
    st.write(response)

En esta aplicación de Streamlit, primero recuperas la clave API de un archivo .env y la cargas en la variable GOOGLE_API_KEY.

Luego, creas una función sencilla llamada generate_content que toma la entrada del usuario (señal), la pasa al modelo y luego devuelve el texto de respuesta.

En la interfaz de Streamlit, hay un cuadro de entrada de texto proporcionado por st.text_input y un botón 'Generar'. Cuando presionas el botón, llama a la función generate_content y muestra el texto de respuesta debajo del campo de entrada.

Esto es lo que verás en la aplicación de Streamlit cuando se esté ejecutando.


Usa Gemini 1.5 Pro con ChaLabs

Nos complace informarte que puedes comenzar a usar fácilmente los Modelos Gemini de Google, incluido el último Gemini 1.5 Pro, con nuestra herramienta de IA ChatLabs.

ChatLabs es una plataforma avanzada y fácil de usar que es compatible con más de 30 LLMs más populares, incluidos GPT-4, Gemini 1.5, Llama 3, Mistral 8x22B, Claude Opus y muchos otros.

Para usar todos los mejores modelos de IA en un solo lugar, simplemente ve a https://labs.writingmate.ai y regístrate.


Enlaces útiles y artículos relacionados

Publicación del blog de desarrolladores de Google sobre Gemini 1.5
SDK de Google AI para Android
Cómo ejecutar Mistral 8x22B localmente en tu computadora
Cómo ejecutar Llama 3 localmente en tu PC
Guía para ejecutar Llama 2 localmente
Cómo ejecutar OpenELM de Apple

Stay up to date
on the latest AI news by ChatLabs

Regístrese en solo un minuto.

© 2023 Writingmate.ai

© 2023 Writingmate.ai

© 2023 Writingmate.ai

© 2023 Writingmate.ai