Sicherheitstechnik

Sicherheitstechnik ist eine angewandte Naturwissenschaft, die stark mit der Systemtechnik / Industrietechnik und die Teilmenge-Systemsicherheitstechnik verbunden ist. Sicherheitstechnik versichert, dass sich ein lebenskritisches System, wie erforderlich, benimmt, selbst wenn Bestandteile scheitern.

Übersicht

Ideal nehmen Sicherheitsingenieure ein frühes Design eines Systems, analysieren es, um zu finden, welche Schulden vorkommen können, und dann Sicherheitsvoraussetzungen in Gestaltungsvorschriften Vorderseite und Änderungen zu vorhandenen Systemen vorschlagen, um das System sicherer zu machen. In einer frühen Designbühne häufig kann ein ausfallsicheres System annehmbar sicher mit einigen Sensoren und einer Software gemacht werden, um sie zu lesen. Probabilistic mit der Schuld tolerante Systeme kann häufig durch das Verwenden von mehr, aber kleiner und weniger - teure Stücke der Ausrüstung gemacht werden.

Zu häufig, anstatt wirklich das Design zu beeinflussen, werden Sicherheitsingenieure damit beauftragt zu beweisen, dass ein vorhandenes, vollendetes Design sicher ist. Wenn ein Sicherheitsingenieur dann entdeckt, dass bedeutende Sicherheitsprobleme spät im Designprozess, sie korrigierend, sehr teuer sein können. Dieser Typ des Fehlers hat das Potenzial, um große Geldbeträge zu vergeuden.

Die Ausnahme zu dieser herkömmlichen Annäherung ist die Weise, wie sich einige große Regierungsstellen Sicherheitstechnik von einer mehr proaktiven und bewiesenen Prozess-Perspektive nähern, die als "Systemsicherheit" bekannt ist. Die Systemsicherheitsphilosophie soll auf komplizierte und kritische Systeme, wie kommerzielle Verkehrsflugzeuge, komplizierte Waffensysteme, Raumfahrzeug, Schiene und Transport-Systeme, Flugsicherungssystem und andere komplizierte und sicherheitskritische Industriesysteme angewandt werden. Die bewiesenen Systemsicherheitsmethoden und Techniken sollen verhindern, beseitigen und Gefahren und Gefahren durch bestimmte Einflüsse durch eine Kollaboration von Schlüsseltechnikdisziplinen und Produktmannschaften kontrollieren. Softwaresicherheit ist ein schnelles wachsendes Feld, da moderne Systemfunktionalität unter der Kontrolle der Software zunehmend gestellt wird. Das ganze Konzept der Systemsicherheit und Softwaresicherheit, als eine Teilmenge der Systemtechnik, soll sicherheitskritische Systemdesigns durch das Leiten mehrerer Typen von Gefahr-Analysen beeinflussen, um Gefahren zu identifizieren und Designsicherheitseigenschaften und Verfahren anzugeben, um Gefahr zu annehmbaren Niveaus strategisch zu lindern, bevor das System bescheinigt wird.

Zusätzlich kann Misserfolg-Milderung Designempfehlungen besonders im Gebiet der Wartung übertreffen. Es gibt einen kompletten Bereich der Sicherheits- und Zuverlässigkeitstechnik bekannt als Reliability Centered Maintenance (RCM), die eine Disziplin ist, die ein direktes Ergebnis ist, potenzielle Misserfolge innerhalb eines Systems zu analysieren und Wartungshandlungen zu bestimmen, die die Gefahr des Misserfolgs lindern können. Diese Methodik wird umfassend auf dem Flugzeug verwendet und schließt das Verstehen der Misserfolg-Weisen der verwendbaren ersetzbaren Bauteile zusätzlich zu den Mitteln ein, einen drohenden Misserfolg zu entdecken oder vorauszusagen. Jeder Kraftfahrzeugeigentümer ist mit diesem Konzept vertraut, wenn sie in ihrem Auto nehmen, um das Öl oder die überprüften Bremsen ändern zu lassen. Sogar jemandes Auto mit dem Brennstoff voll zu füllen, ist ein einfaches Beispiel einer Misserfolg-Weise (Misserfolg wegen der Kraftstofferschöpfung), ein Mittel der Entdeckung (Kraftstoffmesser) und eine Wartungshandlung (den Kraftstofftank des Autos füllend).

Für in großem Umfang komplizierte Systeme können sich Hunderte wenn nicht Tausende von Wartungshandlungen aus der Misserfolg-Analyse ergeben. Diese Wartungshandlungen basieren auf Bedingungen (z.B, das Maß-Lesen oder die undichte Klappe), harte Bedingungen (z.B, wie man bekannt, scheitert ein Bestandteil nach 100 Stunden der Operation mit 95-%-Gewissheit), oder verlangen Sie, dass Inspektion die Wartungshandlung (z.B, Metallerschöpfung) bestimmt. Das RCM Konzept analysiert dann jeden individuellen Wartungsartikel für seinen Risikobeitrag zu Sicherheit, Mission, betrieblicher Bereitschaft oder Kosten zur Reparatur, wenn ein Misserfolg wirklich vorkommt. Dann wird die aller Wartungshandlungen ganze Summe in Wartungszwischenräume gestopft, so dass Wartung um die Uhr, aber eher regelmäßig nicht vorkommt. Dieser sich davonmachende Prozess führt weitere Kompliziertheit ein, weil es einige Wartungszyklen strecken, dadurch Gefahr vergrößernd, aber andere reduzieren könnte, dadurch potenziell Gefahr mit dem Endergebnis reduzierend, das eine umfassende Wartungsliste, Zweck ist, der gebaut ist, um betriebliche Gefahr zu reduzieren und annehmbare Niveaus der betrieblichen Bereitschaft und Verfügbarkeit zu sichern.

Analyse-Techniken

Analyse-Techniken können in zwei Kategorien gespalten werden: qualitative und quantitative Methoden. Sowohl Annäherungen teilen die Absicht, kausale Abhängigkeiten zwischen einer Gefahr auf dem Systemniveau als auch den Misserfolgen von individuellen Bestandteilen zu finden. Qualitative Annäherungen konzentrieren sich auf die Frage "Was, muss solch schief gehen, dass eine Systemgefahr vorkommen kann?" während quantitative Methoden darauf zielen, Bewertungen über probabilites, Raten und/oder Strenge von Folgen zur Verfügung zu stellen.

Traditionell verlassen sich Sicherheitsanalyse-Techniken allein auf die Sachkenntnis und das Gutachten des Sicherheitsingenieurs. Im letzten Jahrzehnt sind musterbasierte Annäherungen prominent geworden. Im Gegensatz zu traditionellen Methoden versuchen musterbasierte Techniken, Beziehungen zwischen Ursachen und Folgen von einer Art Modell des Systems abzuleiten.

Traditionelle Methoden für die Sicherheitsanalyse

Die zwei allgemeinsten Schuld-Modellieren-Techniken werden Misserfolg-Weise und Effekten-Analyse und Schuld-Baumanalyse genannt. Diese Techniken sind gerade Weisen, Probleme zu finden und Pläne zu machen, mit Misserfolgen, als in der Probabilistic-Risikobewertung fertig zu werden. Eine der frühsten ganzen Studien mit dieser Technik auf einem kommerziellen Kernkraftwerk war die WASCHEN 1400-Studie, auch bekannt als die Reaktorsicherheitsstudie oder der Bericht von Rasmussen.

Misserfolg-Weisen und Effekten-Analyse

Misserfolg-Weise und Effekten-Analyse (FMEA) sind von unten nach oben, induktive analytische Methode, die entweder am funktionellen oder an mit dem Stück teiligen Niveau durchgeführt werden kann. Für funktionellen FMEA werden Misserfolg-Weisen für jede Funktion in einem System oder Ausrüstungsartikel gewöhnlich mit der Hilfe eines funktionellen Blockdiagramms identifiziert. Für mit dem Stück teiligen FMEA werden Misserfolg-Weisen für jeden mit dem Stück teiligen Bestandteil (wie eine Klappe, Stecker, Widerstand oder Diode) identifiziert. Die Effekten der Misserfolg-Weise werden beschrieben, und haben eine Wahrscheinlichkeit zugeteilt, die auf der Misserfolg-Rate und dem Misserfolg-Weise-Verhältnis der Funktion oder des Bestandteils gestützt ist.

Misserfolg-Weisen mit identischen Effekten können verbunden und in einer Misserfolg-Weise-Effekten-Zusammenfassung zusammengefasst werden. Wenn verbunden, mit der criticality Analyse ist FMEA als Misserfolg-Weise bekannt, Effekten, und Criticality Analyse oder FMECA, haben "fuh-MEE-kuh" ausgesprochen.

Schuld-Baumanalyse

Schuld-Baumanalyse (FTA) ist eine verfeinernde, deduktive analytische Methode. In FTA, primäre Ereignisse wie Teilmisserfolge beginnend, werden menschliche Fehler und Außenereignisse durch Logiktore von Boolean zu einem unerwünschten Spitzenereignis wie ein Flugzeugsunfall verfolgt, oder Kernreaktor-Kern schmelzen. Die Absicht ist, Weisen zu identifizieren, Spitzenereignisse weniger wahrscheinlich zu machen, und nachzuprüfen, dass Sicherheitsziele erreicht worden sind.

Schuld-Bäume sind ein logisches Gegenteil von Erfolg-Bäumen, und können durch die Verwendung des Lehrsatzes von de Morgan auf Erfolg-Bäume erhalten werden (die direkt mit Zuverlässigkeitsblockdiagrammen verbunden sind).

FTA kann qualitativ oder quantitativ sein. Wenn Misserfolg und Ereignis probabilites unbekannt sind, qualitative Schuld-Bäume für minimale Schnittmengen analysiert werden können. Zum Beispiel, wenn eine minimale Schnittmenge ein einzelnes Grundereignis enthält, dann kann das Spitzenereignis durch einen einzelnen Misserfolg verursacht werden. Quantitativer FTA wird verwendet, um oberste Wahrscheinlichkeit eines Ereignisses zu schätzen, und verlangt gewöhnlich Computersoftware wie CAFTA vom Elektrischen Macht-Forschungsinstitut oder SAPHIRE von Idaho Nationales Laboratorium.

Einige Industrien verwenden sowohl Schuld-Bäume als auch Ereignis-Bäume. Ein Ereignis-Baum fängt von einem unerwünschten Initiatoren (Verlust der kritischen Versorgung, des Teilmisserfolgs usw.) an und zieht mögliche weitere Systemereignisse zu einer Reihe von Endfolgen durch. Da jedes neue Ereignis betrachtet wird, wird ein neuer Knoten auf dem Baum mit einem Spalt von Wahrscheinlichkeiten der Einnahme jedes Zweigs hinzugefügt. Die Wahrscheinlichkeiten einer Reihe "Spitzenereignisse", aus dem anfänglichen Ereignis entstehend, können dann gesehen werden.

Sicherheitszertifikat

Gewöhnlich ist ein Misserfolg in sicherheitsbeglaubigten Systemen annehmbar, wenn, durchschnittlich, weniger als ein Leben pro 10 Stunden der dauernden Operation gegen den Misserfolg verloren wird. Die meisten Westkernreaktoren, medizinische Ausrüstung und kommerzielles Flugzeug werden zu diesem Niveau bescheinigt. Die Kosten gegen den Verlust von Leben sind passend an diesem Niveau (durch FAA für Flugzeugssysteme laut Bundesflugregulierungen) betrachtet worden.

Das Verhindern des Misserfolgs

Sobald eine Misserfolg-Weise identifiziert wird, kann sie gewöhnlich durch das Hinzufügen zusätzlicher oder überflüssiger Ausrüstung zum System gelindert werden. Zum Beispiel enthalten Kernreaktoren gefährliche Radiation, und Kernreaktionen können so viel Hitze verursachen, dass keine Substanz sie enthalten könnte. Deshalb haben Reaktoren Notkernkühlsysteme, um die Temperatur zu unterdrücken, beschirmend, um die Radiation und konstruierten Barrieren (gewöhnlich mehrere, verschachtelt, überstiegen durch ein Eindämmungsgebäude) zu enthalten, um zufällige Leckage zu verhindern. Sicherheitskritische Systeme sind allgemein erforderlich, keinem einzelnen Ereignis oder Teilmisserfolg zu erlauben, auf eine katastrophale Misserfolg-Weise hinauszulaufen.

Die meisten biologischen Organismen haben einen bestimmten Betrag der Überfülle: vielfache Organe, vielfache Glieder, usw.

Für jeden gegebenen Misserfolg kann ein Fehlen - oder Überfülle fast immer entworfen und in ein System vereinigt werden.

Sicherheit und Zuverlässigkeit

Risikobewertung von Probabilistic hat eine nahe Beziehung zwischen Sicherheit und Zuverlässigkeit geschaffen. Teilzuverlässigkeit, die allgemein in Bezug auf die Teilmisserfolg-Rate und äußerliche Wahrscheinlichkeit eines Ereignisses definiert ist, wird beide in quantitativen Sicherheitsbewertungsmethoden wie FTA verwendet. Verwandte probabilistic Methoden werden verwendet, um System Mean Time Between Failure (MTBF), Systemverfügbarkeit oder Wahrscheinlichkeit des Missionserfolgs oder Misserfolgs zu bestimmen. Zuverlässigkeitsanalyse hat ein breiteres Spielraum als Sicherheitsanalyse, darin nichtkritische Misserfolge werden betrachtet. Andererseits werden höhere Misserfolg-Raten annehmbar für nichtkritische Systeme betrachtet.

Sicherheit kann allgemein durch die Teilzuverlässigkeit allein nicht erreicht werden. Katastrophale Misserfolg-Wahrscheinlichkeiten 10 pro Stunde entsprechen den Misserfolg-Raten von sehr einfachen Bestandteilen wie Widerstände oder Kondensatoren. Ein kompliziertes System, das Hunderte oder Tausende von Bestandteilen enthält, könnte im Stande sein, einen MTBF von 10,000 bis 100,000 Stunden zu erreichen, bedeutend, dass es an 10 oder 10 pro Stunde scheitern würde. Wenn ein Systemausfall gewöhnlich katastrophal ist, ist die einzige praktische Weise, 10 pro Stunde-Misserfolg-Rate zu erreichen, durch die Überfülle. Zwei überflüssige Systeme mit unabhängigen Misserfolg-Weisen, jeder, einen MTBF von 100,000 Stunden habend, konnten eine Misserfolg-Rate auf der Ordnung 10 pro Stunde wegen der Multiplikationsregel für unabhängige Ereignisse erreichen.

Wenn das Hinzufügen der Ausrüstung unpraktisch ist (gewöhnlich wegen des Aufwandes), dann ist die am wenigsten teure Form des Designs häufig "von Natur aus ausfallsicher". D. h. ändern Sie das Systemdesign, so sind seine Misserfolg-Weisen nicht katastrophal. Innewohnende Fehlen-Safes sind in medizinischer Ausrüstung, Verkehr und Eisenbahnsignalen, Kommunikationsausrüstung und Sicherheitsausrüstung üblich.

Die typische Annäherung soll das System einordnen, so dass gewöhnliche einzelne Misserfolge den Mechanismus verursachen, auf eine sichere Weise zuzumachen (für Kernkraftwerke, wird das ein passiv sicheres Design genannt, obwohl mehr als gewöhnliche Misserfolge bedeckt werden). Abwechselnd, wenn das System eine Gefahr-Quelle wie eine Batterie oder Rotor enthält, dann kann es möglich sein, die Gefahr vom System zu entfernen, so dass seine Misserfolg-Weisen nicht katastrophal sein können. Die amerikanische Verteidigungsministerium-Standardpraxis für die Systemsicherheit (MIL-STD-882) legt den höchsten Vorrang auf der Beseitigung von Gefahren durch die Designauswahl.

Eines der allgemeinsten ausfallsicheren Systeme ist die Überschwemmungstube in Bädern und Ausgüssen. Wenn die Klappe offen steckt, anstatt eine Überschwemmung und Schaden, die Zisterne-Stürze in eine Überschwemmung zu verursachen. Ein anderes allgemeines Beispiel ist, dass in einem Aufzug das Kabel, das das Auto unterstützt, frühlingsgeladene Bremsen offen hält. Wenn das Kabel bricht, ergreifen die Bremsen Schienen, und das Aufzug-Jagdhaus fällt nicht.

Einige Systeme können nie gemacht werden scheitern sicher, weil dauernde Verfügbarkeit erforderlich ist. Zum Beispiel ist der Verlust des Motorstoßes im Flug gefährlich. Überfülle, Schuld-Toleranz oder Wiederherstellungsverfahren werden für diese Situationen (z.B vielfache unabhängige kontrollierte und gefütterte Kraftstoffmotoren) verwendet. Das macht auch das System weniger empfindlich für die Zuverlässigkeitsvorhersagefehler, oder Qualität hat Unklarheit für die getrennten Sachen veranlasst. Andererseits werden Misserfolg-Entdeckung & Korrektur und Aufhebung von Misserfolgen des häufigen Grundes hier immer wichtiger, um Systemniveau-Zuverlässigkeit zu sichern.

Misserfolg enthaltend

Es ist übliche Praxis, um für den Misserfolg von Sicherheitssystemen durch die Eindämmung und Isolierungsmethoden zu planen. Der Gebrauch, Klappen, auch bekannt als den Block zu isolieren, und zapft Sammelleitung ab, ist im Isolieren von Pumpen, Zisternen und Kontrollklappen sehr üblich, die scheitern können oder alltägliche Wartung brauchen. Außerdem sind fast alle Zisternen, die Öl oder andere gefährliche Chemikalien enthalten, erforderlich, Eindämmungsbarrieren um sie aufstellen zu lassen, um 100 % des Volumens der Zisterne im Falle eines katastrophalen Zisterne-Misserfolgs zu enthalten. Ähnlich in einer langen Rohrleitung gibt es entfernt Schlussklappen regelmäßig, so dass eine Leckstelle isoliert werden kann. Schuld-Isolierungsgrenzen werden in kritische elektronische Systeme oder Computersoftware ähnlich entworfen. Die Absicht aller Eindämmungssysteme ist, Mittel zur Verfügung zu stellen, die Folgen des Misserfolgs zu lindern.

Schuld-Isolierung könnte sich auch auf das Ausmaß beziehen, in dem entdeckte Misserfolge für die erfolgreiche Wiederherstellung isoliert werden könnten. Das Isolierungsniveau zeigt das System identure Niveau, an dem die Misserfolg-Ursache (häufig durch den Ersatz einer Linie ersetzbare Einheit) wieder erlangt werden kann.

Siehe auch

  • ARP4761
  • Erdbeben-Technik
  • Wirksame Sicherheitsausbildung
  • Forensische Technik
  • Gefahr und Funktionsfähigkeit studieren
  • Industrietechnik
  • IEC 61508
  • Berater der Verlust-Kontrolle
  • Kernsicherheit
  • Prozess-Sicherheitsmanagement
  • Risikobewertung
  • Risikomanagement
  • Sicherheitslebenszyklus
  • Arbeitsplatz-Sicherheit
  • Zonensicherheitsanalyse

Referenzen

Quellen

Außenverbindungen


Spinor / SIGGRAPH
Impressum & Datenschutz