スペルマシン学習プラットフォームがオンプレミスになります

機械学習とディープラーニングのエンドツーエンドプラットフォームであるSpellは、データの準備、トレーニング、展開、管理をカバーし、独自のハードウェアにも展開できるシステムの新しいバージョンであるSpell for PrivateMachinesを発表しました。クラウドリソースの場合と同じです。

Spellは、Facebookの元エンジニアリングディレクターであり、FacebookのAIResearchグループの創設者であるSerkanPiantinoによって設立されました。Spellを使用すると、チームは、Jupyterノートブックなどの使い慣れたツールを組み込み、クラウドでホストされるGPUコンピューティングインスタンスを活用する、再現可能な機械学習システムを作成できます。

スペルは使いやすさを強調しています。たとえば、実験のハイパーパラメータ最適化は、高レベルの1コマンド関数です。また、ユーザーがインフラストラクチャを構成するために多くのことを行う必要もありません。Spellは、使用可能なハードウェアを検出し、それに合わせて調整します。Spellは実験アセットも整理するため、開発プロセスの一環として、実験とそのデータの両方をバージョン管理してチェックポイントを設定できます。

スペルは元々クラウドでのみ実行されていました。これまで、「ファイアウォールの背後」での展開はありませんでした。Spell For Private Machinesを使用すると、開発者は独自のハードウェアでプラットフォームを実行できます。オンプレミスとクラウドの両方のリソースを、必要に応じて組み合わせて組み合わせることができます。たとえば、プロジェクトのプロトタイプバージョンをローカルハードウェアで作成し、本番環境にデプロイするためにAWSインスタンスにスケールアウトすることができます。

Spellのワークフローの多くは、ローカルで実行されているように感じ、既存のワークフローを補完するようにすでに設計されています。スペル作業用のPythonツールはpip install spell、たとえば、で設定できます。また、Spellランタイムはコンテナーを使用するため、ハイパーパラメーターの回転が異なる複数のバージョンの実験を並べて実行できます。