29 abr 2024
Guía sobre cómo usar Google Gemini Pro - ¿Puedo ejecutarlo localmente?
Una guía simple y útil sobre cómo utilizar los modelos de IA Google Gemini, incluyendo el avanzado Gemini 1.5 Pro.
![Ejecutar Gemini 1.5](https://framerusercontent.com/images/GLm7XyxIP0fGtsC1cxSFxfoc.jpg)
Regístrese en solo un minuto.
¿Qué es Gemini AI?
Gemini es un modelo de IA desarrollado por la corporación Google. Gemini fue creado por varios equipos en Google, incluidos los de Google Research. Está diseñado para ser multimodal, lo que significa que puede trabajar y combinar diferentes tipos de información como texto, código, audio, imágenes y video. Esto le permite entender y manejar varios tipos de datos fácilmente.
Está disponible en tres versiones (sujetas a cambios):
Gemini 1.0 Ultra: Esta versión inicial estableció nuevos estándares en varios benchmarks, incluido el procesamiento de texto y codificación.
Gemini Nano: Adaptado para dispositivos móviles, está disponible en dos versiones: Nano-1 (1.8 mil millones de parámetros) y Nano-2 (3.25 mil millones de parámetros). Estará disponible para desarrolladores de Android a través de Android AICore.
Gemini 1.5 Pro: El último modelo de tamaño mediano de Google AI que maneja tareas relacionadas con texto, imágenes, videos, audio y código. Cuenta con una ventana de contexto largo que puede procesar hasta 1 millón de tokens, un avance significativo desde los 32,000 tokens de Gemini 1.0. Este modelo fue lanzado a los clientes de Google Cloud en AI Studio y Vertex AI en diciembre de 2023.
Gemini 1.5 Pro es especialmente notable por su capacidad mejorada para manejar grandes cantidades de datos de diversas fuentes. Puede realizar tareas como extraer títulos de libros de imágenes y videos, resumir textos extensos y generar datos JSON a partir de código.
Acceso a Gemini AI
Aunque no es posible ejecutar modelos de IA Gemini localmente sin internet, ahora puedes usar un modelo de IA superior de Google que hace cosas asombrosas. Está disponible para que lo uses. Puedes configurarlo fácilmente y ejecutarlo directamente en tu propia computadora.
Obtener la API de Gemini
Primero, necesitarás una clave API de Google. Ve a la página de IA de Google, encuentra la sección Google Studio y haz clic en "Obtener la clave API." Elige "Crear tu clave API" en un nuevo proyecto y estás listo para empezar.
Luego, abre tu editor de código (VScode, por ejemplo, podría ser una buena elección) y configura un entorno virtual de Python en una nueva carpeta:
Crea el entorno virtual:
python -m venv venv
source venv/bin/activate
Ahora, crea un archivo llamado
requirements.txt
y enumera estos paquetes:
google-generativeai
streamlit
dotenv
El paquete google-generativeai
te permite usar el modelo Gemini de Google, y streamlit
te ayuda a construir aplicaciones web fácilmente.
Instala los paquetes:
bashCopy codepip install -r requirements.txt
Pega tu clave API en un archivo llamado
.env
así:
makefileCopy codeGOOGLE_API_KEY="your-API-key"
Ahora que todo está configurado, ¡puedes empezar con la parte divertida: programar!
Existen dos métodos para implementar esto, veamos ambos:
Método 1: Ejecutar Gemini con Python Notebook
Esta es la primera forma de ejecutar el modelo Gemini AI localmente en tu computadora.
Ejecuta los siguientes pasos en un cuaderno de Python:
Importa los paquetes necesarios:
import textwrap
import google.generativeai as genai
import os
from dotenv import load_dotenv
from IPython.display import display, Markdown
Escribe una función para mostrar el texto de manera agradable:
def to_markdown(text):
text = text.replace('•', ' *')
return Markdown(textwrap.indent(text, '> ', predicate=lambda _: True))
Carga tu clave API:
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
Verifica los modelos Gemini disponibles:
for model in genai.list_models():
if 'generateContent' in model.supported_generation_methods:
print(model.name)
Selecciona un modelo que desees usar:
# Selecting a model
model = genai.GenerativeModel('gemini-pro')
Proporciona una señal al modelo para obtener la respuesta:
# Write any prompt of your choice
response = model.generate_content("YOUR PROMPT")
to_markdown(response.text)
Para ver la respuesta en secciones (fragmentos) o una línea a la vez:
for chunk in response:
print(chunk.text)
print("_" * 80)
Método 2: Ejecutar Gemini Usando Streamlit
Primero, crea un archivo de Python llamado gemini.py
:
from dotenv import load_dotenv
import os
import google.generativeai as genai
import streamlit as st
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
model = genai.GenerativeModel('gemini-pro')
def generate_content(prompt):
response = model.generate_content(prompt)
return response.text
st.title('Gemini AI Text Generator')
prompt = st.text_input('Enter a prompt:')
if st.button('Generate'):
response = generate_content(prompt)
st.write(response)
En esta aplicación de Streamlit, primero recuperas la clave API de un archivo .env
y la cargas en la variable GOOGLE_API_KEY
.
Luego, creas una función sencilla llamada generate_content
que toma la entrada del usuario (señal), la pasa al modelo y luego devuelve el texto de respuesta.
En la interfaz de Streamlit, hay un cuadro de entrada de texto proporcionado por st.text_input
y un botón 'Generar'. Cuando presionas el botón, llama a la función generate_content
y muestra el texto de respuesta debajo del campo de entrada.
Esto es lo que verás en la aplicación de Streamlit cuando se esté ejecutando.
Usa Gemini 1.5 Pro con ChaLabs
Nos complace informarte que puedes comenzar a usar fácilmente los Modelos Gemini de Google, incluido el último Gemini 1.5 Pro, con nuestra herramienta de IA ChatLabs.
ChatLabs es una plataforma avanzada y fácil de usar que es compatible con más de 30 LLMs más populares, incluidos GPT-4, Gemini 1.5, Llama 3, Mistral 8x22B, Claude Opus y muchos otros.
Para usar todos los mejores modelos de IA en un solo lugar, simplemente ve a https://labs.writingmate.ai y regístrate.
Enlaces útiles y artículos relacionados
– Publicación del blog de desarrolladores de Google sobre Gemini 1.5
– SDK de Google AI para Android
– Cómo ejecutar Mistral 8x22B localmente en tu computadora
– Cómo ejecutar Llama 3 localmente en tu PC
– Guía para ejecutar Llama 2 localmente
– Cómo ejecutar OpenELM de Apple
Stay up to date
on the latest AI news by ChatLabs
29 abr 2024
Guía sobre cómo usar Google Gemini Pro - ¿Puedo ejecutarlo localmente?
Una guía simple y útil sobre cómo utilizar los modelos de IA Google Gemini, incluyendo el avanzado Gemini 1.5 Pro.
![Ejecutar Gemini 1.5](https://framerusercontent.com/images/GLm7XyxIP0fGtsC1cxSFxfoc.jpg)
Regístrese en solo un minuto.
¿Qué es Gemini AI?
Gemini es un modelo de IA desarrollado por la corporación Google. Gemini fue creado por varios equipos en Google, incluidos los de Google Research. Está diseñado para ser multimodal, lo que significa que puede trabajar y combinar diferentes tipos de información como texto, código, audio, imágenes y video. Esto le permite entender y manejar varios tipos de datos fácilmente.
Está disponible en tres versiones (sujetas a cambios):
Gemini 1.0 Ultra: Esta versión inicial estableció nuevos estándares en varios benchmarks, incluido el procesamiento de texto y codificación.
Gemini Nano: Adaptado para dispositivos móviles, está disponible en dos versiones: Nano-1 (1.8 mil millones de parámetros) y Nano-2 (3.25 mil millones de parámetros). Estará disponible para desarrolladores de Android a través de Android AICore.
Gemini 1.5 Pro: El último modelo de tamaño mediano de Google AI que maneja tareas relacionadas con texto, imágenes, videos, audio y código. Cuenta con una ventana de contexto largo que puede procesar hasta 1 millón de tokens, un avance significativo desde los 32,000 tokens de Gemini 1.0. Este modelo fue lanzado a los clientes de Google Cloud en AI Studio y Vertex AI en diciembre de 2023.
Gemini 1.5 Pro es especialmente notable por su capacidad mejorada para manejar grandes cantidades de datos de diversas fuentes. Puede realizar tareas como extraer títulos de libros de imágenes y videos, resumir textos extensos y generar datos JSON a partir de código.
Acceso a Gemini AI
Aunque no es posible ejecutar modelos de IA Gemini localmente sin internet, ahora puedes usar un modelo de IA superior de Google que hace cosas asombrosas. Está disponible para que lo uses. Puedes configurarlo fácilmente y ejecutarlo directamente en tu propia computadora.
Obtener la API de Gemini
Primero, necesitarás una clave API de Google. Ve a la página de IA de Google, encuentra la sección Google Studio y haz clic en "Obtener la clave API." Elige "Crear tu clave API" en un nuevo proyecto y estás listo para empezar.
Luego, abre tu editor de código (VScode, por ejemplo, podría ser una buena elección) y configura un entorno virtual de Python en una nueva carpeta:
Crea el entorno virtual:
python -m venv venv
source venv/bin/activate
Ahora, crea un archivo llamado
requirements.txt
y enumera estos paquetes:
google-generativeai
streamlit
dotenv
El paquete google-generativeai
te permite usar el modelo Gemini de Google, y streamlit
te ayuda a construir aplicaciones web fácilmente.
Instala los paquetes:
bashCopy codepip install -r requirements.txt
Pega tu clave API en un archivo llamado
.env
así:
makefileCopy codeGOOGLE_API_KEY="your-API-key"
Ahora que todo está configurado, ¡puedes empezar con la parte divertida: programar!
Existen dos métodos para implementar esto, veamos ambos:
Método 1: Ejecutar Gemini con Python Notebook
Esta es la primera forma de ejecutar el modelo Gemini AI localmente en tu computadora.
Ejecuta los siguientes pasos en un cuaderno de Python:
Importa los paquetes necesarios:
import textwrap
import google.generativeai as genai
import os
from dotenv import load_dotenv
from IPython.display import display, Markdown
Escribe una función para mostrar el texto de manera agradable:
def to_markdown(text):
text = text.replace('•', ' *')
return Markdown(textwrap.indent(text, '> ', predicate=lambda _: True))
Carga tu clave API:
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
Verifica los modelos Gemini disponibles:
for model in genai.list_models():
if 'generateContent' in model.supported_generation_methods:
print(model.name)
Selecciona un modelo que desees usar:
# Selecting a model
model = genai.GenerativeModel('gemini-pro')
Proporciona una señal al modelo para obtener la respuesta:
# Write any prompt of your choice
response = model.generate_content("YOUR PROMPT")
to_markdown(response.text)
Para ver la respuesta en secciones (fragmentos) o una línea a la vez:
for chunk in response:
print(chunk.text)
print("_" * 80)
Método 2: Ejecutar Gemini Usando Streamlit
Primero, crea un archivo de Python llamado gemini.py
:
from dotenv import load_dotenv
import os
import google.generativeai as genai
import streamlit as st
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
model = genai.GenerativeModel('gemini-pro')
def generate_content(prompt):
response = model.generate_content(prompt)
return response.text
st.title('Gemini AI Text Generator')
prompt = st.text_input('Enter a prompt:')
if st.button('Generate'):
response = generate_content(prompt)
st.write(response)
En esta aplicación de Streamlit, primero recuperas la clave API de un archivo .env
y la cargas en la variable GOOGLE_API_KEY
.
Luego, creas una función sencilla llamada generate_content
que toma la entrada del usuario (señal), la pasa al modelo y luego devuelve el texto de respuesta.
En la interfaz de Streamlit, hay un cuadro de entrada de texto proporcionado por st.text_input
y un botón 'Generar'. Cuando presionas el botón, llama a la función generate_content
y muestra el texto de respuesta debajo del campo de entrada.
Esto es lo que verás en la aplicación de Streamlit cuando se esté ejecutando.
Usa Gemini 1.5 Pro con ChaLabs
Nos complace informarte que puedes comenzar a usar fácilmente los Modelos Gemini de Google, incluido el último Gemini 1.5 Pro, con nuestra herramienta de IA ChatLabs.
ChatLabs es una plataforma avanzada y fácil de usar que es compatible con más de 30 LLMs más populares, incluidos GPT-4, Gemini 1.5, Llama 3, Mistral 8x22B, Claude Opus y muchos otros.
Para usar todos los mejores modelos de IA en un solo lugar, simplemente ve a https://labs.writingmate.ai y regístrate.
Enlaces útiles y artículos relacionados
– Publicación del blog de desarrolladores de Google sobre Gemini 1.5
– SDK de Google AI para Android
– Cómo ejecutar Mistral 8x22B localmente en tu computadora
– Cómo ejecutar Llama 3 localmente en tu PC
– Guía para ejecutar Llama 2 localmente
– Cómo ejecutar OpenELM de Apple
Stay up to date
on the latest AI news by ChatLabs
29 abr 2024
Guía sobre cómo usar Google Gemini Pro - ¿Puedo ejecutarlo localmente?
Una guía simple y útil sobre cómo utilizar los modelos de IA Google Gemini, incluyendo el avanzado Gemini 1.5 Pro.
![Ejecutar Gemini 1.5](https://framerusercontent.com/images/GLm7XyxIP0fGtsC1cxSFxfoc.jpg)
Regístrese en solo un minuto.
¿Qué es Gemini AI?
Gemini es un modelo de IA desarrollado por la corporación Google. Gemini fue creado por varios equipos en Google, incluidos los de Google Research. Está diseñado para ser multimodal, lo que significa que puede trabajar y combinar diferentes tipos de información como texto, código, audio, imágenes y video. Esto le permite entender y manejar varios tipos de datos fácilmente.
Está disponible en tres versiones (sujetas a cambios):
Gemini 1.0 Ultra: Esta versión inicial estableció nuevos estándares en varios benchmarks, incluido el procesamiento de texto y codificación.
Gemini Nano: Adaptado para dispositivos móviles, está disponible en dos versiones: Nano-1 (1.8 mil millones de parámetros) y Nano-2 (3.25 mil millones de parámetros). Estará disponible para desarrolladores de Android a través de Android AICore.
Gemini 1.5 Pro: El último modelo de tamaño mediano de Google AI que maneja tareas relacionadas con texto, imágenes, videos, audio y código. Cuenta con una ventana de contexto largo que puede procesar hasta 1 millón de tokens, un avance significativo desde los 32,000 tokens de Gemini 1.0. Este modelo fue lanzado a los clientes de Google Cloud en AI Studio y Vertex AI en diciembre de 2023.
Gemini 1.5 Pro es especialmente notable por su capacidad mejorada para manejar grandes cantidades de datos de diversas fuentes. Puede realizar tareas como extraer títulos de libros de imágenes y videos, resumir textos extensos y generar datos JSON a partir de código.
Acceso a Gemini AI
Aunque no es posible ejecutar modelos de IA Gemini localmente sin internet, ahora puedes usar un modelo de IA superior de Google que hace cosas asombrosas. Está disponible para que lo uses. Puedes configurarlo fácilmente y ejecutarlo directamente en tu propia computadora.
Obtener la API de Gemini
Primero, necesitarás una clave API de Google. Ve a la página de IA de Google, encuentra la sección Google Studio y haz clic en "Obtener la clave API." Elige "Crear tu clave API" en un nuevo proyecto y estás listo para empezar.
Luego, abre tu editor de código (VScode, por ejemplo, podría ser una buena elección) y configura un entorno virtual de Python en una nueva carpeta:
Crea el entorno virtual:
python -m venv venv
source venv/bin/activate
Ahora, crea un archivo llamado
requirements.txt
y enumera estos paquetes:
google-generativeai
streamlit
dotenv
El paquete google-generativeai
te permite usar el modelo Gemini de Google, y streamlit
te ayuda a construir aplicaciones web fácilmente.
Instala los paquetes:
bashCopy codepip install -r requirements.txt
Pega tu clave API en un archivo llamado
.env
así:
makefileCopy codeGOOGLE_API_KEY="your-API-key"
Ahora que todo está configurado, ¡puedes empezar con la parte divertida: programar!
Existen dos métodos para implementar esto, veamos ambos:
Método 1: Ejecutar Gemini con Python Notebook
Esta es la primera forma de ejecutar el modelo Gemini AI localmente en tu computadora.
Ejecuta los siguientes pasos en un cuaderno de Python:
Importa los paquetes necesarios:
import textwrap
import google.generativeai as genai
import os
from dotenv import load_dotenv
from IPython.display import display, Markdown
Escribe una función para mostrar el texto de manera agradable:
def to_markdown(text):
text = text.replace('•', ' *')
return Markdown(textwrap.indent(text, '> ', predicate=lambda _: True))
Carga tu clave API:
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
Verifica los modelos Gemini disponibles:
for model in genai.list_models():
if 'generateContent' in model.supported_generation_methods:
print(model.name)
Selecciona un modelo que desees usar:
# Selecting a model
model = genai.GenerativeModel('gemini-pro')
Proporciona una señal al modelo para obtener la respuesta:
# Write any prompt of your choice
response = model.generate_content("YOUR PROMPT")
to_markdown(response.text)
Para ver la respuesta en secciones (fragmentos) o una línea a la vez:
for chunk in response:
print(chunk.text)
print("_" * 80)
Método 2: Ejecutar Gemini Usando Streamlit
Primero, crea un archivo de Python llamado gemini.py
:
from dotenv import load_dotenv
import os
import google.generativeai as genai
import streamlit as st
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
model = genai.GenerativeModel('gemini-pro')
def generate_content(prompt):
response = model.generate_content(prompt)
return response.text
st.title('Gemini AI Text Generator')
prompt = st.text_input('Enter a prompt:')
if st.button('Generate'):
response = generate_content(prompt)
st.write(response)
En esta aplicación de Streamlit, primero recuperas la clave API de un archivo .env
y la cargas en la variable GOOGLE_API_KEY
.
Luego, creas una función sencilla llamada generate_content
que toma la entrada del usuario (señal), la pasa al modelo y luego devuelve el texto de respuesta.
En la interfaz de Streamlit, hay un cuadro de entrada de texto proporcionado por st.text_input
y un botón 'Generar'. Cuando presionas el botón, llama a la función generate_content
y muestra el texto de respuesta debajo del campo de entrada.
Esto es lo que verás en la aplicación de Streamlit cuando se esté ejecutando.
Usa Gemini 1.5 Pro con ChaLabs
Nos complace informarte que puedes comenzar a usar fácilmente los Modelos Gemini de Google, incluido el último Gemini 1.5 Pro, con nuestra herramienta de IA ChatLabs.
ChatLabs es una plataforma avanzada y fácil de usar que es compatible con más de 30 LLMs más populares, incluidos GPT-4, Gemini 1.5, Llama 3, Mistral 8x22B, Claude Opus y muchos otros.
Para usar todos los mejores modelos de IA en un solo lugar, simplemente ve a https://labs.writingmate.ai y regístrate.
Enlaces útiles y artículos relacionados
– Publicación del blog de desarrolladores de Google sobre Gemini 1.5
– SDK de Google AI para Android
– Cómo ejecutar Mistral 8x22B localmente en tu computadora
– Cómo ejecutar Llama 3 localmente en tu PC
– Guía para ejecutar Llama 2 localmente
– Cómo ejecutar OpenELM de Apple
Stay up to date
on the latest AI news by ChatLabs
29 abr 2024
Guía sobre cómo usar Google Gemini Pro - ¿Puedo ejecutarlo localmente?
Una guía simple y útil sobre cómo utilizar los modelos de IA Google Gemini, incluyendo el avanzado Gemini 1.5 Pro.
![Ejecutar Gemini 1.5](https://framerusercontent.com/images/GLm7XyxIP0fGtsC1cxSFxfoc.jpg)
Regístrese en solo un minuto.
¿Qué es Gemini AI?
Gemini es un modelo de IA desarrollado por la corporación Google. Gemini fue creado por varios equipos en Google, incluidos los de Google Research. Está diseñado para ser multimodal, lo que significa que puede trabajar y combinar diferentes tipos de información como texto, código, audio, imágenes y video. Esto le permite entender y manejar varios tipos de datos fácilmente.
Está disponible en tres versiones (sujetas a cambios):
Gemini 1.0 Ultra: Esta versión inicial estableció nuevos estándares en varios benchmarks, incluido el procesamiento de texto y codificación.
Gemini Nano: Adaptado para dispositivos móviles, está disponible en dos versiones: Nano-1 (1.8 mil millones de parámetros) y Nano-2 (3.25 mil millones de parámetros). Estará disponible para desarrolladores de Android a través de Android AICore.
Gemini 1.5 Pro: El último modelo de tamaño mediano de Google AI que maneja tareas relacionadas con texto, imágenes, videos, audio y código. Cuenta con una ventana de contexto largo que puede procesar hasta 1 millón de tokens, un avance significativo desde los 32,000 tokens de Gemini 1.0. Este modelo fue lanzado a los clientes de Google Cloud en AI Studio y Vertex AI en diciembre de 2023.
Gemini 1.5 Pro es especialmente notable por su capacidad mejorada para manejar grandes cantidades de datos de diversas fuentes. Puede realizar tareas como extraer títulos de libros de imágenes y videos, resumir textos extensos y generar datos JSON a partir de código.
Acceso a Gemini AI
Aunque no es posible ejecutar modelos de IA Gemini localmente sin internet, ahora puedes usar un modelo de IA superior de Google que hace cosas asombrosas. Está disponible para que lo uses. Puedes configurarlo fácilmente y ejecutarlo directamente en tu propia computadora.
Obtener la API de Gemini
Primero, necesitarás una clave API de Google. Ve a la página de IA de Google, encuentra la sección Google Studio y haz clic en "Obtener la clave API." Elige "Crear tu clave API" en un nuevo proyecto y estás listo para empezar.
Luego, abre tu editor de código (VScode, por ejemplo, podría ser una buena elección) y configura un entorno virtual de Python en una nueva carpeta:
Crea el entorno virtual:
python -m venv venv
source venv/bin/activate
Ahora, crea un archivo llamado
requirements.txt
y enumera estos paquetes:
google-generativeai
streamlit
dotenv
El paquete google-generativeai
te permite usar el modelo Gemini de Google, y streamlit
te ayuda a construir aplicaciones web fácilmente.
Instala los paquetes:
bashCopy codepip install -r requirements.txt
Pega tu clave API en un archivo llamado
.env
así:
makefileCopy codeGOOGLE_API_KEY="your-API-key"
Ahora que todo está configurado, ¡puedes empezar con la parte divertida: programar!
Existen dos métodos para implementar esto, veamos ambos:
Método 1: Ejecutar Gemini con Python Notebook
Esta es la primera forma de ejecutar el modelo Gemini AI localmente en tu computadora.
Ejecuta los siguientes pasos en un cuaderno de Python:
Importa los paquetes necesarios:
import textwrap
import google.generativeai as genai
import os
from dotenv import load_dotenv
from IPython.display import display, Markdown
Escribe una función para mostrar el texto de manera agradable:
def to_markdown(text):
text = text.replace('•', ' *')
return Markdown(textwrap.indent(text, '> ', predicate=lambda _: True))
Carga tu clave API:
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
Verifica los modelos Gemini disponibles:
for model in genai.list_models():
if 'generateContent' in model.supported_generation_methods:
print(model.name)
Selecciona un modelo que desees usar:
# Selecting a model
model = genai.GenerativeModel('gemini-pro')
Proporciona una señal al modelo para obtener la respuesta:
# Write any prompt of your choice
response = model.generate_content("YOUR PROMPT")
to_markdown(response.text)
Para ver la respuesta en secciones (fragmentos) o una línea a la vez:
for chunk in response:
print(chunk.text)
print("_" * 80)
Método 2: Ejecutar Gemini Usando Streamlit
Primero, crea un archivo de Python llamado gemini.py
:
from dotenv import load_dotenv
import os
import google.generativeai as genai
import streamlit as st
load_dotenv()
GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
genai.configure(api_key=GOOGLE_API_KEY)
model = genai.GenerativeModel('gemini-pro')
def generate_content(prompt):
response = model.generate_content(prompt)
return response.text
st.title('Gemini AI Text Generator')
prompt = st.text_input('Enter a prompt:')
if st.button('Generate'):
response = generate_content(prompt)
st.write(response)
En esta aplicación de Streamlit, primero recuperas la clave API de un archivo .env
y la cargas en la variable GOOGLE_API_KEY
.
Luego, creas una función sencilla llamada generate_content
que toma la entrada del usuario (señal), la pasa al modelo y luego devuelve el texto de respuesta.
En la interfaz de Streamlit, hay un cuadro de entrada de texto proporcionado por st.text_input
y un botón 'Generar'. Cuando presionas el botón, llama a la función generate_content
y muestra el texto de respuesta debajo del campo de entrada.
Esto es lo que verás en la aplicación de Streamlit cuando se esté ejecutando.
Usa Gemini 1.5 Pro con ChaLabs
Nos complace informarte que puedes comenzar a usar fácilmente los Modelos Gemini de Google, incluido el último Gemini 1.5 Pro, con nuestra herramienta de IA ChatLabs.
ChatLabs es una plataforma avanzada y fácil de usar que es compatible con más de 30 LLMs más populares, incluidos GPT-4, Gemini 1.5, Llama 3, Mistral 8x22B, Claude Opus y muchos otros.
Para usar todos los mejores modelos de IA en un solo lugar, simplemente ve a https://labs.writingmate.ai y regístrate.
Enlaces útiles y artículos relacionados
– Publicación del blog de desarrolladores de Google sobre Gemini 1.5
– SDK de Google AI para Android
– Cómo ejecutar Mistral 8x22B localmente en tu computadora
– Cómo ejecutar Llama 3 localmente en tu PC
– Guía para ejecutar Llama 2 localmente
– Cómo ejecutar OpenELM de Apple
Stay up to date
on the latest AI news by ChatLabs
Regístrese en solo un minuto.
© 2023 Writingmate.ai
© 2023 Writingmate.ai
© 2023 Writingmate.ai
© 2023 Writingmate.ai