Tractatus Logico-Philosophicus Instrumentum Computatorium
Letztes Update des Tractatus: 12.04.2018

Darstellung: Liste | Logik | Prosa | Diagramm (474 kb)
Details: 6 | 5 | 4 | 3 | 2 | 1

Formale Herleitung zu 6 (aufheben):
(1) Sensitive Daten → Schutz vor Manipulationen
q.e.d.

1 Sicherheit ∈ Zustand
1.1 Sicherer Zustand = {Handlung1, Handlung2, ..., Handlungn}
1.1.1 ∀x(Handlung(x) ∧ AusgeführteTätigkeit(x))
1.1.2 ∀x(Handlung(x) ∧ (Aktiv(x) ∨ Passiv(x)))
1.1.3 ∀x(Handlung(x) ∧ Freiwillig(x) ∧ OhneReiz(x)) → AktiveHandlung(x)
1.1.3.1 ∀x(Handlung(x) ∧ MenschlicheAktion(x)) → Freiwillig(x)
1.1.3.2 ∀x(Handlung(x) ∧ (¬MenschlicheAktion(x) ∨ ComputerAktion(x) ∨ MaschineAktion(x) ∨ RoboterAktion(x))) → ProvozierteReaktion(x)
1.1.4 ∀x(PassiveHandlung(x)) ⇔ ProvozierteReaktionAufVorangegangenerReiz(x)
1.1.4.1 ∀x(AktiverReiz(x) ∨ PassiverReiz(x)) ↔ Reaktion
1.1.4.2 ∀x(ComputerInteraktion(x) ∧ Reiz(x)) ⇔ (Eingabe(x) ∨ Anfrage(x))
1.1.4.3 ∃x((Reiz(x1) → Reiz(x2)) → Loop(x))
1.2 ∃x(UnterbindungUnerwünschterHandlungen(x) → ProduktiveSicherheit(x))
1.2.1 ∀x(SpielraumEinerHandlung(x) → Möglichkeit(x))
1.2.2 ∀x(¬Möglichkeit(x) → AbsoluteSicherheit(x))
1.2.2.1 ∀x((System(x) ∧ ¬Möglichkeit(x)) → ¬Nutzen(x))
1.2.2.2 ∀x((ProduktivesSystem(x) ∧ ¬Möglichkeit(x)) → Nutzen(x))
1.2.2.3 ∃x(System(x) ∧ Möglichkeit(x))
1.2.2.4 ∀x(Produkt(x) ∧ (Qualität(x) ∧ Nutzen(x)))
1.2.3 ∃x(¬UnerwünschteHandlungen(x) → ⌈SicheresProdukt(x)⌉)
1.2.3.1 ∀x(NeedToKnowPrinzip(x) → MinimumAnErforderlichenHandlungen(x))
1.2.3.2 ∃x((UnerwarteteMöglichkeit(x) ∨ UnerwünschteMöglichkeit(x)) → Unsicherheit(x))
1.2.4 ∃x((Möglichkeit(x) ∧ Vorgesehen(x)) → Unsicherheit(x))
1.2.4.1 ∃x((Möglichkeit(x) ∧ Zugelassen(x)) → ¬Sicherheit(x))
1.2.4.2 ∃x((Unsicherheit(x) ∧ Unbekannt(x)) ⇔ (Unsicherheit(x) ∧ Bekannt(x))
2 ∀(Unsicherheit) = ∃(Nicht zugelassene Handlung)
2.1 ∀x(((Unsicherheit(x) ∧ (Theorie(x) ∨ Praxis(x))) ∧ ((Sicherheit(x) ∧ (Theorie(x) ∨ Praxis(x)))
2.1.1 ∀x(Unsicherheit(x) ⊃ TheoretischeUnsicherheit(x) ⊇ PraktischeUnsicherheit(x) ℜ)
2.1.1.1 ∀x((¬ZugelasseneHandlung(x) ∧ ¬Praxis(x)) → TheoretischeUnsicherheit(x))
2.1.1.2 ∀x((NichtZugelasseneHandlung(x) ∧ Praxis(x)) → PraktischeUnsicherheit(x))
2.1.1.3 2.1.1.3 Praktische Unsicherheit lässt sich theoretisch erfassen. Theoretische Unsicherheit manifestiert sich hingegen nicht zwangsweise in der Praxis.
2.1.1.4 ∀x((TheoretischeUnsicherheit(x)) ≤ (PraktischeUnsicherheit(x) → ProduktiveSicherheit(x))
2.1.2 Maximaler Aufwand des Erkennens der Sicherheit = {Zustand1, Zustand2, ..., Zustandn}
2.1.2.1 Aufwand > 0
2.1.2.4 Komplexität = Zustand^Positionen
2.1.2.5 Aufwand = Anzahl prüfender Zustände
2.1.2.6 Hohe Komplexität heutiger Systeme → Unwirtschaftlichkeit der Prüfung aller Zustände
2.2 ((Unsicherheit ∧ Mögliche Ausnutzung) → Gefahr) → Risiko
2.2.1 {Motiv1, Motiv2, ..., Motivn} → Ausnutzen einer Unsicherheit
2.2.1.1 (Gegenwart ∨ Zukunft) ∧ Motiv → Ausnutzung
2.2.1.1 Populistische Diskussion → Geldgier als Motiv
2.2.1.2 (Spieltrieb ∨ Neugierde) → Wichtigstes Motiv
2.2.1.3 (Zukunft ∧ Unsicherheit ∧ Motiv) → Finanzielle Interessen
2.2.2 ((Einfachheit + x) ∧ Handlungsspielraum) → (Interesse + x)
2.2.2.1 (Interesse > 0) → (Bewegung > 0)
2.2.2.2 Einfachheit → Akzeptanz
2.2.2.3 Akzeptanz → Mehr Angreifer
2.2.3 (Möglichkeiten ∧ (Wert > 0)) → Interesse
2.2.3.1 Möglichkeit = Wert × x
2.2.3.2 (Subjektivität ∧ Bewertung) → Absoluter Wert
2.2.4 ∀(Potentielles Risiko) = ∀(Qualität ∧ Quantität)
2.2.4.1 Qualität = Mächtigkeit = Ressourcen = (Zeit ∧ Wissen)
2.2.4.2 Quantität = Anzahl potentielle Angreifer
3 Angriff = Unzulässige Handlung
3.1 ∀Angriff = ∃Angriffsversuch
3.1.1 Angriffsversuch ⊆ Handlungn
3.1.2 One-Shot = Handlung1
3.1.2.1 Qualität Angriffsversuch X = One-Shot X
3.1.3 Qualitativer Angriff = {Angriffsversuch1, Angriffsversuch2, ... Angriffsversuchn}
3.1.3.1 (Angriffsversuch0 < Angriffsversuch1 < Angriffsversuchn)
3.1.3.2 ∃x(PerfekterAngriff(x))
3.1.3.3 Intelligentes System ∧ Angriffsversuch → Unterbinden von Zugriffen
3.2 (Handlung ∧ ¬Handlungsspielraum) → Erfolgreicher Angriff
3.2.1 Erfolgreicher Angriff → Praktische Unsicherheit
3.2.2 Kein erfolgreicher Angriff → Sicherheit
3.3 ∀Angriff = ∀(Wiederholbar ∨ Nicht wiederholbar)
3.3.1 (Erfolgreicher Angriff ∧ Nicht wiederholbar) → ¬Keine Unsicherheit
3.3.1.1 Sicherheit = Verfallbarer Zustand
3.3.1.2 Sicherheit = Fortwährender Prozess
3.3.2 (System ∧ Änderung) → Angriff nicht mehr erfolgreich
3.3.2.1 Erhöhung der Sicherheit = Anpassung des Handlungsspielraums
3.3.2.2 (Unsicherheit ∧ Keine Änderungen möglich) → Unsicherheit
4 (Unsicherheitm ≠ Unsicherheitn) ≠ (Angriffm ≠ Angriffn)
4.1 Qualität einer Unsicherheit = (Effizienz ∧ Eleganz)
4.1.1 Qualität einer Unsicherheit → Qualität eines Angriffs
4.1.2 (Unsicherheit ∧ (Qualität + x)) → (Handlungsspielraum + x)
4.1.3 (Einstufung einer Unsichehreit ∧ Objektivität) → Erlaubt
4.1.3.1 Entwicklung eines metrischen Systems → Hochgradig subjektiv
4.1.4 Unsicherheit A → Unsicherheit B
4.1.4.1 ((Unsicherheit A = 1) → (Unsicherheit B = 2)) ∨ ((Unsicherheit A = 2) → (Unsicherheit B = 2))
4.1.4.2 (Unsicherheit A = 3) &rarr ¬(Unsicherheit B < 3)
4.2 Qualität Angriff A ≠ Qualität Angriff B
4.2.1 Effizienter Angriff = Minimum an Bewegung
4.2.2 Eleganter Angriff = UnerwarteteNutzung ∧ KreativeNutzung
4.2.2.1 Handlungsspielraum → Kreativität
4.2.2.2 ((Handlungsspielraum + x) = (Komplexität + x)) ≠ ((Handlungsspielraum + x) = (Kreativität + x))
4.2.2.3 Abnahme der Kreativität = (Angriffn - n/m)
4.2.2.4 Angriffx Kreativität = 0
4.2.3 Einfacher Angriff = Minimum Effizienz erforderlich
4.2.3.1 Grosse Unsicherheit → Kleiner Angriff
4.2.3.2 Kleinste Unsicherheit → Effektivsten Angriff
4.2.4 Qualität des Angreifers → Subjektive Messung
4.2.4.1 Angreifertypen = {Normaler Endanwender, Skriptkiddie, Semi-Professioneller Fachspezialist, Professioneller Angreifer}
4.2.4.2 (Professioneller Angreifer ∧ Kleiner Angriff) ≅ (Skriptkiddie ∧ Grosser Angriff)
4.2.4.3 Messbarkeit Angriffe = (Qualität Unsicherheit ∧ Qualität Angriff)
5 Korrupter Programmcode = (Programmcode ∧ Unerwünschter Nebeneffekt)
5.1 Korrupter Programmcode = (Programmcode ∧ Unerwünscht); (Unnötiger Programmcode ∨ Legitimer Programmcode) = (Programmcode ∧ ¬Korrupt)
5.1.1 Legitimer Programmcode = Programmcode führt Arbeit aus
5.1.2 Unnötiger Programmcode = (Programmcode ∧ Nicht benötigte Arbeit)
5.1.2.1 Unnötiger Programmcode → Ineffizienz
5.1.2.2 (Unnötiger Programmcode + x) = (Ineffizienz + x)
5.1.2.3 (NOP-Anweisung ∧ Ohne Nutzen) → Unnötig → Ineffizient
5.1.3 Programmcode = (Nützlich ∧ Erwünscht) ∨ (Unnützlich ∧ Unerwünscht)
5.2 Korrupter Programmcode = {Korrupter Programmcode1, Korrupter Programmcode2, ... Korrupter Programmcoden}
5.2.1 Computerviren = (Korrupter Programmcode ∧ Populärste Form)
5.2.1.1 Computerviren = Populistisch
5.2.1.2 Computervirus = Sich selber reproduzierendes Programm
5.2.1.3 Computervirus = Computervirus \ Schadensroutine
5.2.2 Popularität Computerviren > Popularität Trojanische Pferde
5.2.2.1 ("Trojanisches Pferd" ∧ Volksmund) → "Trojaner"
5.2.2.2 Familie Trojanisches Pferd ≠ Familie Computervirus
5.2.2.3 Trojanisches Pferd = Unbewilligte Aktion im Hintergrund
5.2.2.4 ∀(Trojanisches Pferd) = ∃(Destruktiv ∨ Nicht destruktiv)
5.2.3 ∀(Exploit) ≈ ∃(Korrupter Programmcode)
5.2.3.1 ∀Exploit = ∃(Anleitung ∨ Tool)
5.2.3.2 ∀(Exploit ∧ Nutzer) → Legitim; ∀(Exploit ∧ Opfer) → Korrupt
5.3 ∀(Korrupter Programmcode) → ∃(Erkennbar)
5.3.2 Antiviren-Lösungen = {Pattern-Matching, ...}
5.3.2.1 Pattern-Matching = (Identifikation ∧ Analyse ∧ Charakterisierung ∧ Speicherung)
5.3.2.2 (Pattern A = "abcd"; Virus A = "abcZ") → (Erkennen "abcd" ∧ ¬Erkennen "abcZ") → ¬Erkennen Virus A
5.3.3 Heuristik ≡ Verhaltensanalyse
5.3.3.1 Zeitnahe Reaktion = Heuristik
5.3.3.2 Nicht perfekt = (Heuristik ∨ Pattern-Matching)
5.3.3.3 Heuristik = Performanceverbrauch
5.3.4 (Korrupter Programmcode ∧ Desinfektion) → Sauberes System
5.3.4.1 Korrupter Programmcode ∨ Legitimer Programmcode
5.3.4.2 ((Korrupter Programmcode A ∨ Korrupter Programmcode B) ∧ (Desinfektion A ∨ Desinfektion B)) → ¬Sauberes System
6 Sensitive Daten → Schutz vor Manipulationen
6.1 (Einsicht durch Dritte ∈ Unerwünschte Manipulation) → ¬Vertraulichkeit
6.1.2 (Unerwünschte Einsicht ∧ Abgeschotteter Kanal) → Verhinderung
6.1.2.1 Abgeschotteter Kanal = Durch keine anderen Medien genutzt
6.1.2.2 (Geteilte Leitung ∧ VPN) → Abgeschotteter Kanal
6.1.3 Lösungsansatz = (¬Dedizierter Kanal ∧ Verschlüsselung)
6.1.3.1 Klartext = Unverschlüsselte Daten
6.1.3.2 Geheimtext = Verschlüsselte Daten
6.1.3.3 Symmetrische Verschlüsselung = EK(M) ∨ DK(C)
6.1.3.4 Asymmetrische Verschlüsselung = Zwei unterschiedliche Schlüssel
6.1.3.5 Kryptoanalyse = Angreifen von kryptografischen Systemen
6.2 (Veränderung ∈ Unerwünschte Manipulation) → ¬Integrität
6.2.1 Digitale Signatur → (Gewährleistung Integrität ∧ Gewährleistung Authentizität)
6.2.1.1 Signatur = SK(H(M))
6.2.1.2 Deterministisch = Eindeutigkeit
6.2.1.3 Probabilistisch = Vieldeutigkeit
6.2.2 Signatur = {RSA, DSA, El-Gamal, ...}
6.2.2.1 RSA = (Populär ∧ Schwierige Faktorisierung)
6.2.2.2 {DSA, El-Gamal, Schnorr-Signatur} = (Alternativ ∧ Diskreter Logarithmus in endlichen Körpern)
6.2.2.3 {ECDSA, ECGDSA, Nyberg-Rueppel-Signatur} = (Alternativ ∧ Diskreter Logarithmus in elliptischen Kurven)
6.2.3 Verschlüsselung → Integrität
6.2.3.1 (Verschlüsselung ∧ Forge) → ¬Integrität
6.3 ((Verzögerung ∨ Unterbindung) ∈ Unerwünschte Manipulation) → ¬Verfügbarkeit
6.3.1 Denial of Service = Destruktive Attacke
6.3.1.1 Distributed Denial of Service = Denial of Service durch verteilte Systeme
6.3.2 Überlastung → Denial of Service
6.3.2.2 ((Eigene Ressourcen > Andere Ressourcen) ∧ Überlastung) → Denial of Service
6.3.3 Schlecht umgesetzte Dienste → Deaktivierung des Dienstes
6.3.3.1 (TCP/IP ∧ ARP-Kill) → Denial of Service
6.3.3.2 (TCP/IP ∧ ICMP-Fehlermeldung) → Denial of Service
6.3.3.3 Administrativer Zugriff → Deaktivierung → Denial of Service