Python library with Neural Networks for Image Segmentation based on Keras and TensorFlow.
このライブラリの主な特徴は以下の通りです。
- ハイレベルなAPI(セグメンテーションのためのモデルを作成するためのわずか2行のコード)
- バイナリおよびマルチクラスの画像セグメンテーションのための4つのモデルアーキテクチャ(伝説のUnet含む)
- それぞれのアーキテクチャに対して25の利用できるバックフォン
- すべてのバックフォンには高速かつ良い収束のための事前学習された重量がある
- 役に立つセグメント損失(Jaccard.Second)。 重要なお知らせ
バージョン
1.*
のモデルの中には、以前に学習したモデルと互換性がないものがあります。$ pip install -U segmentation-models==0.2.1
目次
- Quick start
- シンプルな学習パイプライン
- サンプル
- モデルとバックボーン
- インストール
- ドキュメント
- Change log
- 引用
- ライセンス
Quick start
ライブラリはKerasおよびTensorFlow Kerasフレームワーク
import segmentation_models as sm# Segmentation Models: using `keras` framework.
デフォルトでは、
keras
をインポートしようとする。 がインストールされていない場合、tensorflow.keras
フレームワークで起動しようとします。フレームワークを選択する方法はいくつかあります。また、使用する
image_data_format
の種類を指定することもでき、segmentation-models は両方に対応しています。Created segmentation model is just an instance of Keras Model, which can be built as easy as:
model = sm.Unet()
タスクに応じて、少ないまたは多くのパラメータでバックボーンを選択することによってネットワークアーキテクチャを変更し、それを初期化するのにプリトレーンドウェイトを使用できるようになります。
model = sm.Unet('resnet34', encoder_weights='imagenet')
モデル内の出力クラス数を変更する(ケースを選択):
モデルの入力形状を変更する:
Simple training pipeline
同様の操作は
Linknet
、PSPNet
、FPN
で行うことができる。 モデルAPIやユースケースについてのより詳しい情報はドキュメントをご覧ください。- CamVidのバイナリセグメンテーション(車)。
- CamVidのマルチクラスセグメンテーション(車、歩行者)。
モデルとバックボーン
モデル
- Unet
- FPN
- Linknet
- PSPNet
Unet Linknet PSPNet FPN Backbones
全てのバックボーンは2012 ILSVRC ImageNetデータセット(
encoder_weights='imagenet'
)で学習した重みを持っています。Installation
Requirements
- python 3
- keras >= 2.2.0 or tensorflow >= 1.0.0.13
- keras-applications >= 1.0.7, <=1.0.8
- image-classifiers == 1.0.*
- efficientnet == 1.0.*
- image-classifiers==1.0。*
PyPI stable package
$ pip install -U segmentation-models
PyPI latest package
$ pip install -U --pre segmentation-models
Source latest version
$ pip install git+https://github.com/qubvel/segmentation_models
Documentation
Latest documentation is available on Read theDocs
Change Log
To see important changes between versions look at CHANGELOG.をご覧ください。md
Citing
License
Project is distributed under MIT Licence.
.