• Home
  • Inline Documentation
  • Private Doc
  • Search
  • Home
  • Inline Documentation
  • Private Doc
  • Search
  • 1 Praktische Relevanz und Innovationskraft
    • 1.1 Das Ziel des Projekts CulinAIbot
    • 1.2 Die praktische Relevanz von CulinAIBot
    • 1.3 Anwendungsfälle und Nutzung der Ergebnisse
    • 1.4 Innovationskraft
  • 2 Workflow und Eingesetzte Methoden
    • 2.1 Architektur
      • 2.1.1 Hardware
      • 2.1.2 Software
    • 2.2 Sprach Dialogsystem
      • 2.2.1 Spracherkennung und Sprachverarbeitung
        • 2.2.1.1 Daten
        • 2.2.1.2 KI-Modelle
      • 2.2.2 Spracherzeugung
        • 2.2.2.1 Daten
        • 2.2.2.2 KI-Modelle
    • 2.3 Bild- und Objekterkennung
      • 2.3.1 Daten
      • 2.3.2 KI-Modelle
    • 2.4 Multimodales Dialogmanagement: Kombination von Sprache und visuellen Daten
    • 2.5 Wahrnehmung und Kartierung
    • 2.6 Action Management
    • 2.7 Autonome Navigation und Mobilitätssystem
    • 2.8 Präzisionsmanipulation und Steuerung der Roboterarme
  • 3 Anwendungen und Ergebnisse
    • 3.1 Bilder des CulinAIBot
    • 3.2 Rezepte suchen und generieren
  • 4 Kritische Reflexion des Projekts
    • 4.1 Auswertung des Projekts
    • 4.2 Herausforderungen während der Umsetzung
    • 4.3 Potential des Projekts
    • 4.4 Schwachstellen des Projekts
    • 4.5 Nächste Schritte
  • 5 Programm Code
  • 6 Zusätzliche Daten
  • 7 Video Pitch
  • 8 Literaturverzeichnis
  • 9. Abkürzungsverzeichnis und Glossar
  • 10 Das Team

2.3.2 KI-Modelle

6 views 0[print-me printstyle="pom-small-grey" tag="span" id="2004" target=".title-content-print"]

Written by admin
September 20, 2024

In meinen Projekten, so auch bei CulinAIBot, nutze ich YoloV8x von Ultralytics für die Objekt Detection, denn ich will sehr genau entscheiden können, welche Pixel auf dem Bild, zu welchem Teil gehören.

Für die Objekterkennung nutze ich das YOLOv8x-Extremmodell, da es schnell und einfach trainierbar ist. Außerdem basiert es auf PyTorch, einer Bibliothek, die für maschinelles Lernen und insbesondere für die Objekterkennung verwendet wird. Ein Vorteil von YoloV8x ist, dass es die wichtigen Methoden für das Trainieren und Testen des Modelles mitbringt.

Als Umgebung für das Training dieser Modelle haben ich meinen PC (mit 2x RTX3090) genutzt, weil der Code für YoloV8x sehr performant läuft und ich somit sehr schnell Trainingserfolge erzielen konnte. Hierbei habe ich folgende Einstellungen getroffen: Epoche=100, Batch size= 100, optimizer=adam, learning rate= 0.1, Bildgröße=640.

Als Trainings- und Validation-Split wähle ich in meinem Projekten immer 90% (Training) / 10% (Validation).

Der Test der Erkennung der Lebensmittel in der Küche zeigt, dass diese mit dem CulinAIBot.pt Model in Echtzeit über die Kamera des CulinAIBot möglich ist. Wo hingegen vor zwei Jahren mit Yolo5 noch 1000 Bilder pro Klasse nötig waren um eine Genauigkeit von > 85% zu erreichen, sind mit Yolo8 zum Training der ersten 15 Klassen gerade mal 100 Bilder in denen die Lebensmittel und weiteren Objekte gemeinsam enthalten waren, um eine Trainingsgenauigkeit von 95% zu erreichen. Für die aktuell 53 Klassen nutze ich 1020 Bilder um diese Trainingsgenauigkeit zu erreichen. Dadurch ist auch die Trainingszeit erheblich reduziert.

Sobald Yolo10-X mit Segmentation zur Verfügung steht, werde ich diese neue Yolo Version gegen die von mir genutzte Version Yolo8x testen (Ultralytics 2024-1) (Ultralytics 2024-2).

Erkannte Objekte

Was this helpful?

Yes  No
Related Articles
  • 2.5 Wahrnehmung und Kartierung
  • 3.1 Bilder des CulinAIBot
  • 2.7 Autonome Navigation und Mobilitätssystem
  • 2.8 Präzisionsmanipulation und Steuerung der Roboterarme
  • 9. Abkürzungsverzeichnis und Glossar
  • 2.6 Action Management

No luck finding what you need? Contact Us

Leave A Comment Antworten abbrechen

Previously
2.3.1 Daten
Up Next
2.4 Multimodales Dialogmanagement: Kombination von Sprache und visuellen Daten
Copyright 2024 CulinAIBot.de. All Rights Reserved