超低消費電力が要求されるAlways-onデバイスにおけるTinyMLアプリケーションや、LLMに代表される生成AIアプリケーションなど、エッジデバイスにおけるAI推論の活用が急速に広がっています。
この講演では、数GOPSから数千TOPSまで対応可能なCevaのスケーラブルなNPU製品群、および多種多様なネットワークモデルを実行するためのAIツールを含むソフトウェアの統合開発環境を紹介します。