「失敗百選」

 中尾 政之 東京大学大学院教授
 森北出版株式会社



畑村洋太郎さんが有名にした失敗学。
その流れの中でいろいろ「失敗ライブラリー」の構築が進められるがイマイチ。
筆者畑村先生の弟子であり、失敗知識の上位概念を抽出するということに取り組んだ。
まさに失敗のヒエラルキーを作ったということになる。

失敗事例を単に対処療法的に取り扱うのではなく、普遍化させる。
そのことでその失敗の経験がより生かせることになるという考え。
これは正しい。

以下のカテゴリーに分類している

T 技術的な要因でしかも機械分野のエンジニアが少なくとも最初に考えるべき力学的な設計要因
 1 材料の破壊     1 脆性破壊   タイタニック号(1912)  
             2 疲労破壊   ジェット旅客機「コメット」の空中分解(1954)
             3 腐食     
             4 応力腐食割れ 
             5 高分子材料  スペースシャトル・チャレンジャー号の爆発(1986)
 2 構造の破壊     6 バランス不良 トヨタのSUV1994年製「4−Runner」の横転(1994)
             7 基礎不良   上野の地下駅が地下水で浮上(1994)
             8 座屈     広島新交通システムの橋桁落下(1991)
 3 構造の振動     9 共振     苫小牧の原油タンク火災(2003)
            10 流体振動   もんじゅのナトリウム漏れ(1995)
            11 キャビテーション H2ロケット8号機の打ち上げ失敗(1999)
 4 想定外の外力   12 衝撃     フォード「ピント」の衝突火災(1972)
            13 強風     嵐の中でテイ橋崩壊(1879)
            14 異常摩擦   日比谷線の列車脱線衝突(2000)

U 技術的な要因だが、普通は副次的に考えている使用時の設計要因
 5 想定外の制約   15 特殊使用    宅配便のスタビライザ損傷(2001)
            16 落下物・付着物 コンコルドの墜落(2000)
            17 逆流      
            18 塵埃・動物   石油ファンヒーターが不完全燃焼(1985)
            19 誤差蓄積    パトリオットミサイルの防御失敗(1983)
 6 火災・天災からの逃げ遅れ
            20 油脂火災
            21 火災避難    韓国の地下鉄火災(2003)
            22 天災避難    奥尻島の津波(1993)
 7 連鎖反応で拡大  23 脆弱構造    世界貿易センタービル崩壊(2001)
            24 フィードバック系暴走 チェルノブイリ原発の爆発(1986)
            25 化学反応暴走  
            26 細菌繁殖    雪印食中毒(2000)
            27 産業関連    森永ヒ素ミルク事件(1955)
 8 冗長系の非作動  28 フェールセーフ不良  ニューヨーク大停電(1993)
            29 待機系不良   スリーマイル島原発の破壊(1979)

V 技術的な要因だが、人間と組織との関係が強い設計要因
 9 作業で手を抜く  30 入力ミス    三島駅で新幹線のドアに指を挟まれ、引きずられて死亡(1995)
            31 配線作業ミス  H2ロケット5号の打ち上げ失敗(1995)
            32 配管作業ミス  JR中央線の切り替え工事で復旧されず(2003)
10 設計で気を抜く  33 自動制御ミス  JAL機ニアミス(2001)
            34 流用設計    アポロ13号の生還(1970)
            35 だまし運転   信楽高原鉄道での列車正面衝突(1991)

W 技術ではどうしようもない組織的な要因
11 個人や組織の怠慢 36 コミュニケーション不足  明石の歩道橋の圧死(1999)
            37 安全装置解除  大月駅で特急と回送電車が衝突(1997)
12 悪意の産物    38 違法行為    バリュージェット航空機がマイアミで墜落(1996)
            39 企画変更の不作為 諫早湾干拓事業の反対運動
            40 倫理問題     糖尿病薬「リズリン」のリコール(2000)
            41 テロ       オウム真理教の地下鉄サリンテロ(1995)



全体にわたっての筆者の主張は、失敗を犯してもそれが大きな事故に至らないように
システム的に対処すべきということである。
これは山之内さん(JR東日本)の「なぜ起こる鉄道事故」にもあった哲学である。
人間はミスをやろうと思って犯すのではない。だから起こってしまったミスをいかに教訓として、
起こらないように、起こっても大丈夫なように(フェールセーフ)してゆくことなのである。
実は私自身が電中研原子力情報センターへ出向中(30歳前半)にまとめた「国内原子力発電所のヒューマンエラー分析」
でも同じことを言っていたのである。
理科系の人間はこのような発想になるのであろうか。
管理ではなくシステム設計で対処するという考え方である。

○フェールセーフ 
 どうせヒューマンエラーするのだから、エラーしてもフェイルダメージにならないような
 メカニカルフューズを設置する方が効果的である。
 管理強化してもおっちょこちょいの人間の性格は変えられないのである。
 日本の製造業では40%がハード的対策を行っているのは立派である。


○ RPGが有効
 失敗の典型例の内容を盛り込んだ状況(事例集)を準備して、臨場感を高めながら疑似体験する
 ロールプレイングゲーム(RPG)が失敗知識を生かすのに有効である。
 たとえば、顧客サービスのトラブルを防いだり、医療ミス後の緊急対応方法を学んだりする研修では、
 受講者が顧客と店員、または患者と看護士のように分かれて演技する。それをビデオで録画して、それを
 再録しながら受講者全員で正解を討論する。

→ 聞くのではなく、実際自分で考えさせ「討論させる」ことが重要と認識している。
  倫理コンプライアンス事例研修も同様であろう。


○ 経営の失敗はデータがない。
  技術分野では水平展開がかなり行われている。
  一方で、企画・開発の失敗は誰も分析していない。
  製造・検査の失敗と比べると、企画・開発の失敗は、長期・組織的・遅効・少数という特性を持つ。
  いずれも知識として扱いにくい特性である。さらに「開発の事実が秘密で、撤退の事実も恥ずかしい
  から秘密」というプロジェクトが多く、失敗事例が集めにくいという特性を持つ。

→ したがってこの失敗百選にはプロジェクトの失敗事例がないのである。
  この百選が出れば日本企業は強くなれるのではないだろうか…。


○ 日本ではメンテナンスが軽視されている
  役所が決めた安全基準でも、現役で動いている限り、20歳と同じ健康を保った「絶対に壊れない機械」
  が期待され、「新品の安全規定を使用中の中古品にまで適用すべき」という考えが強い。
  たとえば50歳になればガタが来るのは当たり前だが、大半の人は20歳と同じように仕事ができる。
  それなのに20歳と同じような血圧や皮下脂肪、反射能力を課すことはナンセンスである。

  → 全く同感である。私は行政の不作為を問題にしている。
    このような間違った法令をキッチリ守らなければいけないのが現在のコンプライアンスの
    問題(不合理)である。

○ 使命感が醸成されないと、失敗を防ぐ気にもなれない。
  使命感は「明日への安心感」から生まれる。
  成果主義に追われる中核人材や、半日後に配置転換されるかも知れないフリーターに、
  いくら「将来のために過去の失敗を学べ」と命令してもムダである。
  彼らに必要なのは「今日の出来高」である、明日のではない。

  → でも私はフリーターにも使命感を与えるマネジメントは絶対にあると信じる。


各事例での特記事項
4−12.1 フォード「ピント」の衝突火災(1972年)
  フォード社の開発したコンパクトカー。燃料タンクを後部に設置した。
  追突されると危険だが、これを改善するためのリコール費用よりも、事故が発生した場合の訴訟費用が
  安いと判断し、そのまま販売する。ところが予想をはるかに上回る懲罰賠償金を支払うハメになった。

これと対照的なのがトヨタ
5−15.2 宅配便のスタビライザ損傷(2001年)
  トヨタ製の宅配便車が、急坂・急カーブの連続路を5年間毎日走行していた。高車高のため、たわみや
  ねじれが大きく、車体の疲労が想定外に蓄積した。トヨタはリコールし、亀裂の入りやすい箇所を強化した。
  設計者にとってはまさかと思う使用例である。この特殊使用車は少数で車番が特定できるが、危険を公表せず
  に個別に改良を施すことは現在の日本では許されない、とメーカは判断し、修理は始めるが並行してリコール
  で公開した。

しかしトヨタも痛い目にはあっている
6−6.2 トヨタのSUV1994年製「4−Runner」の横転(1995)
  アメリカで発売されていたトヨタのSUVが、運転中に横転、トヨタは訴えられ、米国最高裁で、
  鹿渡に危険な車体を作った(高い重心)、という判決を受け、765万ドルの支払命令。

皮肉もある
4−14.3 日比谷線の列車脱線衝突(2000)
 無責任の「複合原因」と揶揄している。
 役所が作った事故調査委員会報告書は、材料が悪い、設計が悪い、製造が悪い、保守が悪い、運転者が悪い、
 運転管理者が悪い、教育研修が悪い、規制官庁が悪いという「総員懺悔」の「複合原因」が原因であることが
 多い。


そしてこれは新しい事実を知った。

1−5.1 スペースシャトル・チャレンジャー号の爆発
 この事故は技術倫理の講義でケーススタディに広く使われる事例である。
 この打ち上げの前日の深夜会議では、最後に上席副社長が、打ち上げ決行を渋る同僚に、有名な文句
 「今はエンジニアの防止を脱いで経営者の帽子をかぶるときだよ」と同意を促したのである。

 エンジニアは低温時にOリングが硬化して燃焼ガスが漏れる懸念を持っていた。
 この文句で、エンジニアが安全と利益とを秤にかけたと見なされていた。
 学生の模範解答は
 「すべからくエンジニアは作業や製品に危険が伴うとき、雇用主の命令を拒否しても安全確保すべきである」
 である。

 危険のほかにもいざとなったら雇用主に逆らうべき仕事として、汚職や法律違反のように不正を伴う
 仕事、公害や環境汚染のようにまわりの社会に影響をおよぼす仕事などが挙げられる。

 しかし、その後の調査によって単純な倫理問題ではなかったことが判明。

 まず事故以前に耐圧実験や検査で、Oリングがシールせずガズが抜けることを、モートン・サイオコール社も
 NASAも知っていた。そして必ずしも低温とガス抜けが関連するとは言い切れなかったのであった。
 結局Oリングをもう1本追加することで解決した。

  → 低温時でなくともいずれはガスがぬけて大事故が起こっていたであろうことが推察される。

 このように高分子材料は、金属や無機材料に比べて、機械設計者にとって御しがたい材料なのである。

 → この事実は初めて知った。



他にも一杯あるが上記分類で引用したタイトルだけにとどめる。

最近(18年2月)、日本原子力技術協会の安全セミナーで
筆者の講演会「失敗の知識をシステムに織り込む」行われたようである。
http://www.gengikyo.jp/topics/20060328a.html

その要点を転掲させていただく。

●失敗経験から得られた教訓を基に原因を分類すると41項目に分類でき、すべての失敗がここから起こる。
 この41の項目を理解すれば、過去の失敗を無駄にせず活用できる。
●失敗事例を収集するのは極めて簡単。
 その中から、共通的で反復的に一般的な知識を抽出し自分の現在の危険状況へ知識を適用することが重要である。
 しかし、まったく要求事項が同じ事例は少ないため、上位概念に昇って考えなければならない。
●有用な知識・情報は入手できるけど類似点に気づかず、それを自分で一般解から特殊解に展開できない人が
 半分ぐらいいる。これは極めて問題である。
 上位概念に上がれない人に対しては得た知識を脳に刷り込むようなシステムの取り入れや、
 問題(要求機能)設定訓練、技術員版危機予知訓練のような教育が有効である。
●ヒューマンエラーを防ぐために、自動の失敗回避システムを構築することは大切なことである。
 しかし、想定外の事象が起きたときなど最後の安心・安全の決断は、全体像が理解できる人間が行う必要がある。
●仕組みをつくる人は、ますます賢くなるけど、便利なシステムを使うだけの人は、ますます頭を使わなくなっていく。
 失敗はシステムで防ぐことができるようになるが、人間が二極化してしまうということが大きな問題である。

最後のポイントは本では書いていなかったと思うが、おっしゃるとおりである。


ところが最後のポイントは山之内さんがしっかり書いていらっしゃいました。(「なぜ起こる鉄道事故」)
◎ 人間がミスを犯すことを前提に安全システムをつくるべきだが、余計なシステムはあまり作らないほうがよいと
 思っている。人間にはある程度自由に任せて、時には危険な経験もさせ、臨機応変な対応ができるようにする。
 逆説的になるが、実際に事故や失敗の経験の方が、百の説教よりも効果がある。
  とは言え、大事故は起こしてはならない。そこでお客様に死傷者が出るような事故はシステムで守る。
 その他はなるべく人間の責任に任せたほうがよい、というのが私の考え方であり、
 フランスのTGVのような連続制御式ATSの方がよいのではないかと思っている。運転士に自由に運転させるが、
 本当に危なくなったらシステムが護るのである。


山之内さんのこの本は中尾さんが参考文献で「鉄道事故を過去から現在まで体系的に記述した良書である。」と
評していた。


最後に「企画変更の不作為」についてほぼ全文を引用する。
全く同感である。


○ 「企画変更の不作為」
 「製造・検査系」の失敗が「企画・開発系」の失敗よりも大幅に知識活用されていることがわかった。
 「企画・開発系」の失敗は、一般に実施期間が長期で、原因が組織的で、効果が遅効で、件数が少数である。
 つまりフィードバックがかかりにくく失敗知識が扱いにくい。それに属人的で、失敗の原因究明は直接に
 特定人間の攻撃になりやすい。たとえば、初代プロジェクトリーダーが会社の常務にでもなっていれば、
 大きな失敗とは誰も言えず、もちろん失敗の数のなかにも入らない。
 さらに国は一度決めたことを「失敗でした。中止します」とは決して言わない。
 官僚は2年間でジョブローテーションするから、その間は少なくとも成功とも失敗とも決めずにいれば、
 次の職場に栄転できるかも知れない。とにかく不作為を決め込む。そうこうするうちに、社会環境が変化して
 決定時の前提がものの見事に崩れて、誰がみても失敗だったとわかっても、最初の決定は絶対に変えない。
 しかも、誰も失敗と言わないから失敗自体が存在しない。筆者は企画の失敗データを集めたかったが、
 それはとても難しかった。
 
 企画が失敗すること自体、しかたがない。普通は、企画当初に設計した制約条件が変化する。
 …
 その制約条件が誰がみても変化しているのに、企画変更しないのは明らかに悪意がある。
 悪意というのが言い過ぎならば、勇気がないといえよう。
 自分たちがエイヤッで想定したホラのような制約条件を、そのうちに真実のように信じきることも人間にはできる。
 この製品は絶対に売れるんだ、この設備は絶対に役にたつんだ、とNHKのプロジェクトXの主人公みたいに
 信じることは美しいが、撤退すべきときに撤退しておかないと、新規事業だけでなく全体の活動自体が全滅すること
 もありうるのである。