
主なディープラーニング・フレームワークの学習結果を活用し、エッジデバイスを中心に様々な環境で高速処理を実現
サービス詳細
主なディープラーニング・フレームワークの学習結果を活用し、エッジデバイスを中心に様々な環境で高速処理を実現します。
Deep Learningのことを知らなくても使え、手軽に、どこでも使え、高速処理が可能なフレームワークです。
様々なフレームワークからインポートでき、実行の際には色々なアーキテクチャで高速動作を実現、レイヤとその実行パターンであるルーチンの概念が分離されているため、柔軟性と高速性が両立できます。
これは他の推論エンジンにはない特徴で、チューニングも可能です。
特長
1GPUを搭載していないノートPCやエッジコンピューティングでも高速処理が可能
CPUのみの環境上でも世界最速級の高速処理で推論処理を実行可能です。ニューラルネットワークやメモリの使用方法などをプラットフォーム向けの最適化で実現しました。
2推論エンジンとインポータを両方に対応、学習側と推論側の実装サイクルを高速化
様々なフレームワークのモデルファイルから推論実行可能なファイル形式変換ツール群を備え、学習処理と推論処理の両側での実装サイクルを高速化できます。
3他のデバイスに組み込みやすく、Unityなどへの実装作業も容易
多様なプラットフォームへ対応しており、学習結果の展開が容易になり、動作プラットフォームの変更などにも柔軟な対応が可能です。
解決する課題
−
導入実績
−
費用
| 初期費用 | − |
| 月額費用 | − |
| その他 | − |








