Remember to maintain security and privacy. Do not share sensitive information. Procedimento.com.br may make mistakes. Verify important information. Termo de Responsabilidade

Descubra como executar modelos TensorFlow Lite com tflite-runtime no Raspberry Pi

O TensorFlow Lite é uma versão leve do TensorFlow, projetada para dispositivos móveis e embarcados, como o Raspberry Pi. Ele permite a execução de modelos de aprendizado de máquina com eficiência em dispositivos com recursos limitados. O tflite-runtime é uma biblioteca que facilita a execução de modelos TensorFlow Lite sem a necessidade de instalar a versão completa do TensorFlow, economizando espaço e recursos.

Neste artigo, vamos explorar como configurar e usar o tflite-runtime no Raspberry Pi para executar um modelo de aprendizado de máquina.

Pré-requisitos

  • Um Raspberry Pi com Raspbian OS instalado.
  • Conexão à internet para instalar pacotes e dependências.
  • Um modelo TensorFlow Lite (.tflite) pronto para uso.

Passo 1: Atualizar o Sistema

Antes de começar, é importante garantir que seu sistema está atualizado.

sudo apt-get update
sudo apt-get upgrade

Passo 2: Instalar Dependências

Instale as dependências necessárias para rodar o tflite-runtime.

sudo apt-get install python3-pip
sudo apt-get install libatlas-base-dev

Passo 3: Instalar o tflite-runtime

Instale o tflite-runtime usando pip.

pip3 install tflite-runtime

Passo 4: Baixar um Modelo TensorFlow Lite

Para este exemplo, usaremos um modelo de detecção de objetos pré-treinado. Baixe o modelo e o arquivo de rótulos.

wget https://storage.googleapis.com/download.tensorflow.org/models/tflite/coco_ssd_mobilenet_v1_1.0_quant_2018_06_29.zip
unzip coco_ssd_mobilenet_v1_1.0_quant_2018_06_29.zip

Passo 5: Escrever o Script para Executar o Modelo

Crie um script Python para carregar e executar o modelo TensorFlow Lite.

import numpy as np
import tflite_runtime.interpreter as tflite
from PIL import Image

# Função para carregar e preparar a imagem
def load_image(image_path):
    img = Image.open(image_path)
    img = img.resize((300, 300))
    return np.array(img, dtype=np.uint8)

# Carregar o modelo TFLite
interpreter = tflite.Interpreter(model_path="detect.tflite")
interpreter.allocate_tensors()

# Obter detalhes das entradas e saídas
input_details = interpreter.get_input_details()
output_details = interpreter.get_output_details()

# Preparar a imagem
image = load_image("test_image.jpg")
input_data = np.expand_dims(image, axis=0)

# Executar o modelo
interpreter.set_tensor(input_details[0]['index'], input_data)
interpreter.invoke()

# Obter os resultados
boxes = interpreter.get_tensor(output_details[0]['index'])
classes = interpreter.get_tensor(output_details[1]['index'])
scores = interpreter.get_tensor(output_details[2]['index'])

# Imprimir resultados
for i in range(len(scores[0])):
    if scores[0][i] > 0.5:
        print(f"Objeto detectado: Classe {classes[0][i]}, Pontuação: {scores[0][i]}")

Passo 6: Executar o Script

Salve o script acima em um arquivo chamado detect.py e execute-o.

python3 detect.py

Conclusão

Você aprendeu como configurar e usar o tflite-runtime no Raspberry Pi para executar um modelo TensorFlow Lite. Este processo é eficiente e economiza recursos, tornando-o ideal para dispositivos embarcados com recursos limitados.

To share Download PDF

Gostou do artigo? Deixe sua avaliação!
Sua opinião é muito importante para nós. Clique em um dos botões abaixo para nos dizer o que achou deste conteúdo.