Sou Bacharel em Administração e estou concluindo o último ano de Ciências Econômicas, áreas nas quais desenvolvi uma paixão por resolver problemas e um espírito destemido para enfrentar novos desafios. Na minha carreira trabalhando na área administrativa, especializei-me na otimização de operações e procedimentos administrativos, focando em tornar sistemas complexos mais eficientes e acessíveis. Essa habilidade me permitiu identificar e implementar melhorias práticas, gerando valor tangível para as organizações com as quais trabalhei.
Minha jornada no campo da tecnologia começou em 2003, quando mergulhei no mundo dos softwares open source, com um foco especial no ecossistema GNU/Linux. Esta experiência inicial foi fundamental para desenvolver minhas habilidades em programação, particularmente em escrever código Python de forma modular, reutilizável e sustentável. Além disso, adquiri experiência prática no gerenciamento e controle de processos de desenvolvimento usando Git/GitHub, aprimorando minhas habilidades em integração e entrega contínuas.
Durante minha atual graduação, aprofundei meus conhecimentos em matemática, estatística e econometria. Esses estudos fortaleceram minha base analítica e despertaram um interesse crescente pela ciência de dados, uma área onde posso combinar minhas habilidades técnicas e comportamentais resolvendo problemas.
Estou atualmente buscando atuar profissionalmente como analista ou cientista de de dados, com o objetivo claro de impulsionar decisões empresariais estratégicas através de insights baseados em dados.
"Um dia que não apresente um novo desafio é um dia perdido".
- Python, R, SQL, DAX, Power Query M formula language
- DuckDB, PySpark, NumPy, Pandas, Polars, data.table
- Matplotlib, Seaborn, Plotly
- PostgreSQL, MongoDB, MySQL, MariaDB, SQL Server
- DBeaver
- Power BI, Tableau, Looker Studio
- Streamlit, Evidence , Rill
- AWS, Azure, MotherDuck, Oracle Cloud
- Vercel, Linode, Netlify
- Databricks
- Classification, Regression, Random forests, Support vector machines,
- AdaBoost, K-nearest neighbor, Naïve Bayes
- English B2 Upper Intermediate 54/100
- Definição de KPIs e indicadores
- Probabilidade e Estatística
- Storytelling
Keep It Simple, Stupid!
Simplicidade é o último grau de sofisticação. - Leonard Thiessen
📍 Capelinha/MG
🎈 Fatos sobre mim: 🎮 gamer, 📚 leitor, 🚴 ciclista, 🐶 dog lover, 🤓 nerd.
🌱 Atualmente estou aprendendo: Agile Development Methodologies, Software architecture, Data Structures: Hashtables, Trees and Graphs mainly.
🤔 I'm looking for help to improve my English!
O Python Fundamentus é uma API desenvolvida em Python projetada para facilitar o acesso rápido aos principais indicadores fundamentalistas das ações mais relevantes do mercado brasileiro. Utilizando as informações disponíveis no site Fundamentus disponibiliza informações financeiras e fundamentalistas detalhadas das empresas listadas na B3, este projeto busca trazer a riqueza de dados financeiros diretamente para suas aplicações Python de maneira eficiente e organizada. O aprendizado mais significativo deste projeto foi a utilização do Beautiful Soup, uma biblioteca eficaz para raspagem de dados na web. Ela facilitou a extração de informações financeiras do site Fundamentus, permitindo a integração desses dados de maneira fluída e direta em aplicações Python.
O Banco Central do Brasil (Bacen), de forma trimestral, publica relatórios detalhados com uma vasta gama de dados sobre instituições financeiras, disponíveis através do Portal IF.data. Estes dados, embora valiosos, exigem processamento e análise cuidadosa para extrair informações significativas. O objetivo central deste projeto é empregar técnicas de mineração de dados aos conjuntos de dados do Portal IF.data com o objetivo de criar insights sobre o sistema financeiro brasileiro. O aspecto mais importante aprendido neste projeto foi o uso do Selenium para automatizar tarefas repetitivas. Isso nos possibilitou coletar informações de forma eficiente, apoiando diretamente as decisões práticas.
Este projeto oferece uma análise detalhada, realizada através do Microsoft Power BI, dos laureados com o Prêmio Nobel de 1901 a 2019. O objetivo é identificar padrões, reconhecer as contribuições de diferentes países e destacar a diversidade entre os premiados desta distinção renomada. A análise aborda várias facetas, com ênfase especial na distribuição geográfica dos ganhadores. Os Estados Unidos se sobressaem, com 272 prêmios, o que representa 35,74% do total de laureados, seguidos de perto pelo Reino Unido e pela Alemanha. Este estudo visa não apenas a celebrar as realizações individuais, mas também a oferecer insights sobre as tendências globais e a evolução da excelência acadêmica e profissional ao longo dos anos. O aspecto mais valioso aprendido neste projeto foi o domínio do Power Query para construir um modelo de dados eficiente e a aplicação da linguagem DAX (Data Analysis Expressions) para sintetizar informações. Essas habilidades aprimoraram significativamente nossa capacidade de extrair valor ao manipular dados, facilitando a análise e a tomada de decisões baseadas em insights precisos.