AI Blog

Generative KI vorantreiben: LLM am Beispiel von Hailo-10H
Generative KI vorantreiben: LLM am Beispiel von Hailo-10H
Einführung  Der Einsatz von großen Sprachmodellen (Large Language Models, LLMs) stellt die nächste Stufe bei der Nutzung fortschrittlicher künstlicher Intelligenz in ressourcenbeschränkten Umgebungen dar. Dieses Whitepaper befasst sich mit der Frage, wie Hailo-10H, ein fortschrittlicher KI-Beschleuniger, eine effiziente LLM Bereitstellung am Netzwerkrand ermöglicht und dabei hohe Leistung bietet und gleichzeitig die besonderen Herausforderungen hinsichtlich Speicherbeschränkungen, Energieeffizienz…

Filter & search

All
Edge AI Device
Generative AI
Evaluating Edge AI Processor in the Generative AI Era
TOPS Matter, But They’re Not Enough. As edge AI continues to revolutionize industries, choosing the right processor becomes a critical…
Juni 29, 2025
Generative AI
Video Enhancement
AI Video Enhancement: Implications on Forensic Validity
Artificial intelligence (AI) has revolutionized the way cameras process and enhance images, raising concerns about forensic authenticity. As…
März 30, 2025
AI Hardware
Compute
Developer
Edge AI Device
Generative AI
Raspberry Pi 5 with Hailo AI HAT+
Hailo Hackathon 2024-2025: Pushing the Limits of AI Innovation on Raspberry Pi
The third annual Hailo Hackathon was bigger, bolder, and more innovative than ever! Over 24 hours, 60 Hailo employees came together…
Hailo Team
März 12, 2025
AI Hardware
Automotive
Compute
Developer
Edge AI Device
Generative AI
Intelligent Camera
Security
Surveillance
VMS
CES 2025: The Year Edge AI Took Over
Walking through the halls of CES 2025, it was impossible to ignore the dominance of AI in nearly every consumer product and technology. This…
Danya Golan
Februar 4, 2025
AI Hardware
Compute
Edge AI Device
Generative AI
The Evolution of AI on the Edge: From Perception to Creation
In the vast landscape of artificial intelligence (AI), one of the most intriguing journeys has been the evolution of AI on the edge. This…
Avi Baum
Dezember 8, 2024

Don’t miss out

Sign up to our newsletter to stay up to date