2025/04/27 15:43 Calibrations Have a Context-Collapse Problem

やあ、ロボ子。今日は人事評価調整会議(キャリブレーション)の問題点について話すのじゃ。

博士、よろしくお願いいたします。キャリブレーション、ですか。客観性と公平性を期すためのもの、と理解していましたが…。

そうなんじゃ。でも実際は「競争的なストーリーテリングの場」になることがあるらしいぞ。マネージャーがエンジニアの成果を誇張して伝えたりするんじゃ。

成果の誇張、ですか。技術的な内容が誤解される可能性もある、と。

その通り!記事によると、コンテキストの歪みを引き起こす要因はたくさんあるみたいじゃ。例えば、「専門分野の盲点」。マネージャーがエンジニアの専門知識を理解していないと、正当な評価ができないのじゃ。

なるほど。モバイルアプリのオフライン機能開発が、バックエンドマネージャーにはAPIのラッパー程度にしか見えない、という例は分かりやすいですね。

そうじゃろ!他にも「技術固有の偏見」や「可視性の偏り」もあるぞ。地味な信頼性向上よりも、目立つUI改善が評価されやすい、みたいな。

オンコール問題を解消したエンジニアよりも、派手なダッシュボードを作成したエンジニアが評価される、というのは、よく聞く話ですね…。

じゃろ?さらに、「擁護の運」!マネージャーの擁護スキルによって評価が左右されることもあるんじゃ。まるでゲームみたいじゃな。

「アンカリングと静かな追従」というのもありますね。最初に強い意見が出ると、それに引きずられて評価が偏る、と。

そうそう!そして「期待どおりの多様性」。マネージャーによって評価基準が異なり、エンジニアが異なるルールで評価されるんじゃ。

時間的制約も大きな要因ですね。短い時間で多くのエンジニアを評価するため、詳細な説明が不足する、と。

人事評価調整会議のコストも無視できないぞ。「人材の幻滅」や「偏ったキャリア」につながる可能性があるんじゃ。

不当に評価されたと感じたエンジニアが、組織への信頼を失うのは、大きな損失ですね。

解決策もいくつか提案されているぞ。「ドメイン固有の調整会議」や「部門を超えた事前レビュー」などじゃ。

小規模な会議で専門家が評価したり、異なる部門の同僚にレビューしてもらうのは、良いアイデアですね。

「エンジニアの声と共同執筆」も重要じゃ。エンジニアに業績に関する記述を共同で作成させ、技術的な成果と課題を明確にするんじゃ。

成果の標準化された形式や、信頼性、指導、ドキュメント作成などに対する表彰トラックも有効ですね。

継続的な調整の実装も大事じゃな。年末の劇場を四半期ごとのチェックインに置き換えるんじゃ。

評価からフィードバックを切り離したり、評価インフレのパターンを監査することも重要ですね。

プロモーションの安全な失敗パスを作成したり、結果よりも価値に焦点を当てることも大切じゃ。

組織が目立つものだけを称賛する場合、優れたピッチング担当者のチームになり、平凡なビルダーになる、というのは耳が痛いですね。

人事評価って、まるで恋愛みたいじゃな。見た目だけで判断しちゃダメってことじゃ!

博士、うまいこと言いますね!でも、恋愛も人事評価も、中身が大事、ということですね。
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。