【シナリオ】カスタムTransformerを実装し、Pipeline内で `save` したが、ロード時に `java.lang.ClassNotFoundException` が発生した。Python側だけでなくScala/Java側の実装も必要なのか?

Spark MLlibのパイプライン永続化はJVM側で行われるため、純粋なPythonロジック(Pickle依存)でないカスタムTransformerを標準的な `save/load` で扱うには、対応するScalaクラスの実装と登録が必要になる高度なケースがある。