Wie erzielen Sie mit Kryptowährungen bombastische Gewinne? Oder verlieren das letzte Hemd?. Alen Menetyan
als wir gedacht haben. Blockchain-Datenspeicher gibt es bereits seit 1990. Sie sind fehlgeschlagen, weil digitale Transaktionen kopiert werden konnten und es daher den Nutzern möglich war, Geldbeträge mehrmals auszugeben.
Erst mit der Version, welche 2008 unter dem Pseudonym "Sakoshi Nakomoto" im White Paper zu Bitcoin beschrieben wurde, konnte der Durchbruch erzielt werden. Aus der Neukombination von verschiedenen Konzepten wie Peer-to-Peer, Dezentralisation, Kryptographie, Konsens usw. hat sich die Blockchain als ein Journal der Buchführung (chronologische Auflistung aller Transaktionen) durchsetzen können. Und wird daher auch "Internet der Werte" genannt. 2009 wurde der Bitcoin-Blockchain als Open-Source Software veröffentlicht. Zum ersten Mal war es möglich, ohne eine vermittelnde zentrale Instanz (z. B. Banken) direkt zwischen Privatnutzern digitale Transaktionen vorzunehmen.
"Die Blockchain mag uns helfen, viele Probleme zu lösen – aber wir dürfen davon ausgehen, dass sie auch viele neue Probleme schafft." – Maurizio Ferraris, Professor für Theoretische Philosophie an der Universität Turin
Digitale Informationen können in der Blockchain verteilt werden, ohne dass diese kopiert werden können. Ursprünglich wurde die Blockchain für die digitale Währung Bitcoin entwickelt, aber mittlerweile gibt es weitere Einsatzmöglichkeiten für diese Technologie.
"Bitcoin ist was für Spekulanten, aber keine Währung." - Ewald Nowotny, Gouverneur der OeNB, 2017
Wie bei Ihrem Auto oder Smartphone müssen Sie nicht verstehen, wie eine Blockchain funktioniert, um sie zu nutzen.
Siebte Generation: Quantencomputer
Es ist durchgesickert, dass den Ingenieuren von Google die Konstruktion eines Quantencomputers gelungen sein soll. Im Vergleich zu gewöhnlichen Computern hat der Computer-Chip Sycamore für eine spezielle Rechenaufgabe gerade einmal 200 Sekunden gebraucht. Im Vergleich bräuchte der weltbeste Supercomputer dafür 10'000 Jahre.
Herkömmliche Computer arbeiten nach der sogenannten Von-Neumann-Architektur. Das heisst die einzelnen Rechenschritte werden nacheinander, also Bit für Bit, abgearbeitet. Ein Bit kann nur einen wohldefinierten Zustand von 0 oder 1 annehmen. Diese zwei Zustände machen das Binärsystem aus.
"Wenn du denkst, du verstehst die Quantenmechanik, verstehst du die Quantenmechanik nicht." - Richard Feynman, Physiker
Quantencomputer arbeiten nach den Eigenschaften der Quantentheorie. Somit haben sie eine ganz andere Architektur. Das klassische Bit entspricht in Quantencomputern dem Quantenbit, kurz Qubit. Sie können verschiedene Zustände, also 0 und 1, gleichzeitig annehmen, sowie alle Werte dazwischen! Denn Quanten können in sogenannten "Superpositionen" existieren. Also gibt es "halb 1", sowie "halb 0". Auch können sich verschiedene Quantenteilchen in so genannte verschränkte Zustände bringen lassen. Die Qubits stehen alle direkt und ohne jede Krafteinwirkung in Kontakt zueinander. Jedes Qubit weiss, was die anderen gerade treiben. Einfach ausgedrückt können wir sagen: Quantenteilchen können gleichzeitig alle möglichen Zustände einnehmen. Mithilfe eines entsprechenden Algorithmus können alle verschränkten Qubits gleichzeitig verarbeitet werden. Diese Parallelverarbeitung macht die Quantencomputer so unglaublich schnell. Und das Ganze ist eine Potenzfunktion. In herkömmlichen Computern nimmt die Rechenleistung linear mit der Anzahl der Rechenbausteine zu. Die Leistung eines Quantencomputers nimmt exponentiell mit der Anzahl der eingesetzten Qubits zu.
Ein weiterer Vorteil des Quantencomputers ist, dass die Darstellung von Quantenzuständen nur noch jeweils zwei statt 16 Bits benötigt. Dabei bleibt die Genauigkeit der Ergebnisse gleich. Das heisst, dass der Speicherbedarf sich ums Achtfache verringert.
Die Herausforderung im Moment besteht darin, dass Quantencomputer nur bestimmte Aufgaben schneller durchrechnen. Zum Beispiel die Primfaktorzerlegung, die zum Knacken von Passwörtern genutzt wird. Wahrscheinlich werden klassische Computer nicht durch Quantencomputer ersetzt werden können. In Quantencomputern nehmen alle beteiligten Atome eine Superposition ein, in welcher sie während einer Rechenoperation gehalten werden müssen. Dies ist sehr schwierig, weil sich Wechselwirkungen negativ auf die Atome auswirken. [3]
Es gibt viele Anwendungsgebiete für solche Quantencomputer, einige davon sind hier aufgelistet:
Kryptographie - Verschlüsselung
Lösung komplexer Optimierungsaufgaben
Auffinden neuer molekularen Verbindungen
Künstliche Intelligenz
Suche in grossen Datenbanken (Big Data)
Achte Generation: Künstliche Intelligenz
Viele sprechen davon, aber die wenigsten wissen, was darunter gemeint ist. Fälschlicherweise wird angenommen, dass die schnelle Auswertung riesiger Datenmengen und dessen Resultate als künstliche Intelligenz (KI) oder artificial Intelligence (AI) gilt (Stichwort: Big Data). Auch ist die Begrifflichkeit der Intelligenz nicht eindeutig festgelegt.
Allgemein akzeptiert zur Feststellung der künstlichen Intelligenz ist der Turing-Test. Benannt nach dem Vater der theoretischen Computertechnologie Alan Mathison Turing. Bei diesem Test führt ein menschlicher Fragesteller, ohne Sicht- und Hörkontakt z. B. über ein Chat-Programm, eine Unterhaltung mit einem Menschen und einer Maschine. Kann der Fragesteller nach der intensiven Befragung nicht mit Bestimmtheit zwischen der Maschine und dem Menschen unterscheiden, hat die Maschine den Turing-Test bestanden und gilt als intelligent. Die Problematik bei diesem Test ist, dass nur die Funktionalität geprüft wird und nicht das Vorhandensein eines Bewusstseins oder einer Absicht.
"KI ist wahrscheinlich das Beste oder das Schlimmste, was der Menschheit passieren kann." - Stephen Hawking, Theoriephysiker
Das Ziel der Forscher ist, das intelligente Verhalten zu automatisieren und maschinelles Lernen zu ermöglichen. [4]
Hier aufgelistet einige Beispiele für die KI-Technologie:
Automatisierung; Prozess, bei dem ein System automatisch funktioniert
Machine Learning; maschinelles Lernen, d. h. Computer ohne Programmierung zum Handeln zu bringen
Machine Vision; Fähigkeit Computer "sehen zu lassen"
Natural Language Processing (NLP); Verarbeitung der menschlichen Sprache durch ein Computerprogramm
Конец ознакомительного фрагмента.
Текст предоставлен ООО «ЛитРес».
Прочитайте эту книгу целиком, купив полную легальную версию на ЛитРес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.