sexta-feira, 20 de fevereiro de 2026

Usando Gemini no terminal

Passo a Passo da Instalação
sudo apt install pipx #Gerenciador de pacotes Python
pipx ensurepath #Garante os binários do pipx no path
export PATH="$PATH:$HOME/.local/bin" #Novo path dos binários
pipx install llm #Ferramenta LLMs para CLI
llm install llm-gemini #Plugin para Gemini
llm keys set gemini #API Key do Gemini
llm -m gemini-flash "Qual é a data e hora?" #Teste
echo "alias llm='llm -m gemini-flash-latest'" >> ~/.bashrc #Atalho/Alias
source ~/.bashrc #Recarrega as configurações do terminal
Fonte: https://github.com/simonw/llm

quinta-feira, 22 de janeiro de 2026

Conversão .zip para .7z com apack

Para realizar a conversão, é necessário os pacotes p7zip-full, unzip e atool.

Instalação dos pacotes:

sudo apt update && sudo apt install p7zip-full unzip

Conversão de arquivo único: 

apack -e -F 7z arquivo.zip

Conversão de múltiplos aquivos. 

apack -e -F 7z *.zip

segunda-feira, 1 de dezembro de 2025

Organizando sua coleção com RGSX no Batocera


Para quem gosta de manter a biblioteca de jogos em ordem, o RGSX é excelente. Ele organiza a biblioteca baixando e instalando as roms diretamente no dispositivo. A vantagem no ambiente do Batocera é a praticidade de execução, eliminando a dependência de configurações complexas e de um PC externo. Ele ainda precisa evoluir em alguns pontos, especialmente em usualidade, mas no estágio atual já é extremamente útil.

Instalação no Batocera:

É necessário acesso via SSH ou Terminal e executar o comando:

curl -L bit.ly/rgsx-install | sh

Após a instalação atualize a lista de jogos:  Vá em Menu > Configurações de Jogos > Atualizar lista de jogos. O RGSX estará na seção PORTS ou Homebrew and ports.

Site oficial: https://github.com/RetroGameSets/RGSX


sexta-feira, 17 de outubro de 2025

sexta-feira, 30 de maio de 2025

Como rodar o modelo Llama4-Scout no seu ambiente

Crie um ambiente virtual Python

python3 -m venv llama4-scout
source llama4-scout/bin/activate

Instale o llama-stack

Com o ambiente ativado, instale o llama-stack:

pip install llama-stack

Baixe o modelo

llama model download --source meta --model-id Llama-4-Scout-17B-16E-Instruct

Importante: Será necessário fornecer o URL assinado para o modelo. Sem ele, não roda!

Verifique se o modelo foi baixado corretamente

llama model verify-download --model-id Llama-4-Scout-17B-16E-Instruct

Construa a imagem do llama-stack

Crie a imagem do stack que vai rodar o modelo:

llama stack build --image-name llama-image

Durante a criação, será solicitado que informe os provedores para várias APIs, exemplo:

> Enter provider for API inference: inline::sentence-transformers
> Enter provider for API safety: inline::llama-guard > Enter provider for API agents: inline::meta-reference > Enter provider for API vector_io: inline::meta-reference > Enter provider for API datasetio: inline::localfs > Enter provider for API scoring: inline::basic > Enter provider for API eval: inline::meta-reference > Enter provider for API post_training: inline::torchtune > Enter provider for API tool_runtime: inline::rag-runtime > Enter provider for API telemetry: inline::meta-reference

Por fim vai gerar um arquivo de configuração YAML, localizado em:

/root/.llama/distributions/llamastack-INI/llamastack-INI-run.yaml

Execute o llama-stack

llama stack run /home/ipec/.llama/distributions/llamastack-INI/llamastack-INI-run.yaml

Teste o modelo

Faça um POST simples:

curl -X POST http://157.86.210.239:8321/api/inference \
-H "Content-Type: application/json" \ -d '{"input": "Qual é o valor de Pi"}'