
Modellkonvertierung zu TensorFlow Lite
Schritte zur Modellkonvertierung
# Erstellen eines TFLiteConverter-Objekts aus einem TensorFlow-Modell
converter = lite.TFLiteConverter.from_keras_model(model)
# Prüfung, ob Quantisierung angewendet werden soll
if quantization:
# Definierung der Optimierungen, während der Konvertierung
converter.optimizations = [tf.lite.Optimize...]
# Überprüfung, ob eine Quantisierung auf int8-Basis durchgeführt werden soll
if quant_int8:
# Zuweisung eines repräsentativen Datensatzes, zur Kalibrierung des Modells
# während der Quantisierung.
converter.representative_dataset = representative_dataset
# Festlegen der unterstützten Operationen auf TFLite-Ops
converter.target_spec.supported_ops = [tf.lite.OpsSet...]
# Festlegen des Eingabetyps für Inferenzen
converter.inference_input_type = ...
# Festlegen des Ausgabetyps für Inferenzen
converter.inference_output_type = ...
# Konvertieren des TensorFlow-Modells in ein TensorFlow Lite-Modell
tflite_model = converter.convert()
# Speichern des konvertierten Modells als eine .tflite-Datei
open("tflite_model.tflite", "wb").write(tflite_model)Modelkonvertierung zu C++-Modell
PreviousModellkomprimierung und -optimierungNextEinsatz von TensorFlow Lite Modellen auf Mikrocontrollern
Last updated