検証、そして適材適所

検証

AIがコードを書く時代になっている今、最終的な検証は未だ人間の手でやっているし、そこは人間がやらなければいけないと思っている。

どこまで信頼するか、みたいな問題でもあるけど、検証の負荷が上がっている今こそ、型やテストによるコードの保証が重要視されるべきなんじゃないかな。

適材適所

前項のAIはLLMを指すが、LLMの万能さに甘えるような使い方は果たして健全なんだろうか。

機械学習はミリしらだけど、モデルは適材適所だと思っていて、例えばドメイン固有の領域なんかはちゃんと人の手で抽出した特徴量を元にした検出や分類の方が向いていると思う。

「LLMの万能さはフロントエンドに使い、人とのインターフェースをLLMにしながらバックエンドの最適なモデルを選ばせる」みたいなのが理想的な形なんじゃないかと思っている。

しらんけど。