技術コラム
リチウムイオン電池 正極材におけるFIB-SEM画像のセグメンテーション法

より良いセグメンテーションは正確な結果につながります
リチウムイオン電池の性能、信頼性、安全性は、多くの産業用および民生用で重要な役割を果たしています。FIB-SEM 装置を用いることで、電池正極のナノスケールの詳細画像を取得することができます。これらの画像では、活物質とバインダーが容易に区別でき、粒の構成まで調べることができます。
その性質上、FIB-SEM装置には欠点があります。スライス断面画像には、現在のスライス表面が映し出されますが、撮影前にサンプルの空隙を埋めなければ、空隙の奥にある領域も映し出されてしまいます。サンプルの空隙を埋めるのは時間がかかる作業であり、材料の構造を変えてしまう可能性もあるため、避けられることが多いです。
数値シミュレーションや幾何形状分析には、サンプルの正確な3D画像が必要です。したがって、セグメンテーションによって、位相を正しく区別し、複数あるスライス断面画像の前半から後半まで全領域に正確に割り当てることが必要です。この課題に加え、スライスの前半はイオンビームによって生じるカーテン・アーチファクトの影響を受けることが多いです。
FIB-SEM 画像のセグメンテーションにおけるもう一つの問題は、イオンビームで強度の異なる材料を切断する際に発生します。いわゆるカーテン・アーチファクトに起因するものです。
古典的なセグメンテーション手法(例えば、global thresholdingやwatershedベースの手法)では、この種の画像を適切にセグメンテーションすることは困難です。新しい機械学習ベースのセグメンテーション法は、これらの問題を解決する先進的な方法であり、ここでは3つのセグメンテーション法で比較します。
これら結果は GeoDict ユーザーにとってどのような意味を持つのでしょうか?
最新のセグメンテーション手法は、FIB-SEM 画像の分析に多くの利点をもたらします。今回のセグメンテーション法の比較では、専門家でなくても実行可能な画像処理手法のみを採用しました。これらの手法の最初のハンディキャップは、トレーニングデータにマニュアルでラベル付けをする必要があることです。このステップには時間がかかり、結果に人為的エラーが生じる可能性があります。
ケース1:Boosted Treeを利用したセグメンテーション
最初に適用するのは、Boosted Treeベースのセグメンテーションです。
この手法は、オリジナルの学習可能な Weka セグメンテーション [1] と非常によく似ています。ラベル付けされた各ピクセルについて、特徴のセットが計算され、分類器(この場合はBoosted Tree [2])に入力されます。いったん分類器が学習すると、スキャンのすべてのボクセルに適用され、完全なセグメンテーションを得ることができます。
良いセグメンテーションを得るためには、使用する特徴の選択が非常に重要になります。正しい特徴を見つけるには時間がかかります。
Boosted Treeベースの手法のトレーニングは高速だが、プロセス全体としては特徴画像の計算に必要な時間に影響します。マニュアルでラベル付けしたデータは多く必要とせず、GPUも不要です。
このケースでは、セグメンテーションは、空隙とバインダーから粒子の前景をセグメンテーションする際にうまく機能しています。しかし、バインダーのセグメンテーションは、まだ完全に満足のいくものにはなっていません。いくつかの領域では、空隙の奥にある粒子がバインダーとしてラベル付けされ、バインダーの一部が空隙としてラベル付けされる。
使用モジュール:
- GeoDict Base
- ImportGeo-Vol


ケース2:2D U-Netを利用したセグメンテーション
2つ目の手法は、2D U-Net[3]を使用したディープラーニングベースのセグメンテーションです。
U-Netは画像セグメンテーションに広く適用されています。ディープ・ニューラル・ネットワークによるセグメンテーションで最も重要なのは、学習データの作成です。我々は、疎なラベルデータを用いてネットワークを訓練することを選択しました。この方法により、スライス全面にラベル付けする必要はなく、ユーザーは3D画像のどこにラベルを付けるかを自由に選択することができます。
2D U-Netの学習には、Boosted Tree分類器の学習よりもはるかに多くの時間がかかり、学習を行うにはGPUが必要です。粒子に対する2D U-Netの結果は、今回も非常に良い結果となっております。場所によっては、Boosted Treeの結果よりも優れています。特に、重度のカーテン・アーチファクトが存在する場所では、U-Netの方が良い結果を示しています。バインダー相についても、結果はBoosted Treeと比較して良くなっていますが、まだいくつかのアーチファクトが残っています。個々にラベル付けされたZスライス間の不連続性が生じている場所もあります。


ケース3:3D U-Netを利用したセグメンテーション
3つ目の手法は、3D U-Net[4]を使用したディープラーニングベースのセグメンテーションです。
U-Netは画像セグメンテーションに広く適用されています。ディープ・ニューラル・ネットワークによるセグメンテーションで最も重要なのは、学習データの作成です。我々は、疎なラベルデータを用いてネットワークを訓練することを選択しました。この方法により、スライス全面にラベル付けする必要はなく、ユーザーは3D画像のどこにラベルを付けるかを自由に選択することができます。
2D U-Netの場合とほぼ同じ学習データを使用し、3Dのメリットを得るために、一部の領域で連続するスライスにラベルを追加しました(5%以下のラベルを追加)。この条件下でのトレーニング時間は2番目のケースとほぼ同様です。
粒子に対する結果は、これまた非常によく似ており、優位性は見られませんでした。バインダー相では、3D U-Netの方が良い結果を出しています。3Dでの学習により、スライス間の不連続性が発生していません。



References:
- [1] I. Arganda-Carreras, V. Kaynig, C. Rueden, K. W Eliceiri, J. Schindelin, A. Cardona, H Sebastian Seung: “Trainable Weka Segmentation: a machine learning tool for microscopy pixel classification”, Bioinformatics, Vol. 33, Issue 15: 2424–2426, 2017 https://doi.org/10.1093/bioinformatics/btx180.
- [2] T. Chen and C. Guestrin: XGBoost: A Scalable Tree Boosting System. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD '16). Association for Computing Machinery, New York, NY, USA, 785–794, 2016 https://doi.org/10.1145/2939672.2939785 .
- [3] O. Ronneberger, P. Fischer, T. Brox: “U-Net: Convolutional Networks for Biomedical Image Segmentation” Medical Image Computing and Computer-Assisted Intervention (MICCAI), Springer, LNCS, Vol. 9351: 234--241, 2015, http://dx.doi.org/10.1007/978-3-319-24574-4_28 .
- [4] Ö. Çiçek, A. Abdulkadir, S. S. Lienkamp, T. Brox, O. Ronneberger: “3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation” Medical Image Computing and Computer-Assisted Intervention (MICCAI), Springer, LNCS, Vol. 9901: 424-432, 2016, http://dx.doi.org/10.1007/978-3-319-46723-8_49 .
- *本記事は、GeoDict開発元 Math2Market GmbH の以下の記事を翻訳したものです。
https://www.math2market.com/geodict-aplications/segmentation-methods-for-fib-sem-images-of-li-ion-cathodes.html
- ※掲載されている製品、会社名、サービス名、ロゴマークなどはすべて各社の商標または登録商標です。
製品・サービスに関する
お問い合わせ・資料請求
ご質問、ご相談、お見積もりなど
お気軽にお問い合わせください。
プロダクト営業部
TEL:03-5859-3012
E-mail:eng-sales@scsk.jp お問い合わせフォーム