Skip to content

MoisesArruda/GPT_Streamlit_FAISS

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Assistente Conversacional Focado em Docker

Sobre o Projeto.

Este projeto tem o objetivo de recriar um chatbot baseado em modelo de linguagem projetado para profissionais de tecnologia que desejam trabalhar com Docker. Utilizando a API da OpenAI para resposta a perguntas e os frameworks LangChain para processamento de texto e Streamlit para a criação do front-end.

Instalação e Configuração

Siga estes passos para configuração e uso da aplicação.

  1. Clone o repositório do projeto para sua máquina local:
git clone https://github.com/MoisesArruda/GPT_Streamlit_FAISS
cd GPT_Streamlit_FAISS
  1. Configure a versão correta do Python com pyenv:
pyenv install 3.10.10
pyenv local 3.10.10
  1. Crie o ambiente virtual e ative-o(Windows):
python -m venv .venv
.venv\Scripts\Activate.ps1
  1. Crie o ambiente virtual e ative-o(Linux):
python3 -m venv .venv
source .venv\Scripts\activate.bat
  1. Instale as dependencias do projeto:
pip install -r requirements.txt
  1. Crie um arquivo chamado .env no diretório do projeto para armazenar sua chave de API OpenAI. Adicione sua chave de API OpenAI a este arquivo:
OPENAI_API_KEY= your_api_key_here
OPENAI_API_BASE= your_api_base_here
OPENAI_API_TYPE= "azure"
OPENAI_API_VERSION= your_api_version_here
DEPLOYMENT_NAME= your_deployment_name_here
EMBEDDING_DEPLOYMENT_NAME= your_embedding_deployment_name_here
  1. Rode a aplicação:
streamlit run main.py
  1. Acesse a aplicação no seu navegador de prefêrencia colando a URL abaixo ou seguindo as instruções indicadas em seu terminal.
http://localhost:8501/

Docker ChatBot

Contato

Para dúvidas, sugestões ou feedbacks:

About

Projeto de desenvolvimento front-end com GPT e FAISS

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published