Deutschland braucht eine neue Computertechnik
Das ist natürlich nicht so einfach aber ein ganz einfacher erster Schritt kann die Gründung einer Expertenkommission dazu sein und zwar mit echten, guten Experten, siehe auch
Wie findet man gute Experten, z.B. für eine gute Expertenkommission? Möglichst transparent, damit Fehler frühzeitig auffallen.
Selbstverständlich Open Source und möglichst Open Hardware - das kann die Weiterentwicklungfördern und ein riesiger Verkaufsvorteil sein. Zwar können dann auch andere sich am Know how bedienen aber die werden das vermutlich abwandeln und Qualität aus Deutschland kann ein weiterer Pluspunkt sein - man bedenke, dass kleinere Staaten sich keine High end state of the art Chiptechnik leisten können, dass sich das auch nicht lohnt.nicht lohnt.
Entwicklungsziele sind vor allem Sicherheit, Zuverlässigkeit, Qualität, Haltbarkeit, Effizienz, Performance und ein gutes Preis-Leistungs-Verhältnis. Keine Optimierung nur auf Geschwindigkeit.
Das hätte schon vor Jahrzehnten geschehen müssen aber Deutschland ist vermutlich vom Bösen unterwandert und wird sabotiert.
Nachfolgend ein paar Gedanken - wie gut die sind, ist eine Frage an gute Experten aber vermutlich ist das schon mal gar nicht so blöd:
- Neue CPU ohne
Out-of-order execution und ohne spekulative Befehlsausführung, also keine spekulative
Sprungvorhersage, denn dergleichen ist nur unnötig aufwendig und energiehungrig. Was natürlich wünschenswert ist: in-order kann ggf. schon mal weitergerechnet werden, wenn eine längere Operation z.B. über den Koprozessor (siehe unten) länger dauert und nicht sofort benötigt wird, was bei der Compilierung zu berücksichtigen ist.
- Weil das eine Verlagerung in Hardware bedeutet, kann
CISC wie z.B. beim
Motorola 68000 Sinn machen aber da gibt es auch Grenzen. Man bedenke dass in Zukunft KI programmieren können und dass es auch höhere Programmiersprachen und Compiler gibt. Eine Richtline ist die Frage: Was bringt es? und dazu: Wie oft wird ein bestimmter Befehl/Opcode genutzt?
- Möglicherweise macht etwas Speicherverschwendung zugunsten von weniger Transistoren/Komplexität Sinn, denn RAM gibt es genug und das wirkt sich nicht auf Massenpeicher wie z.B. SSD/HDD aus. Z.B. braucht man heutzutage keinen extra Befehl mehr für 8 Bit Offset, das können gleich mindestens 16 Bit oder vielleicht sogar 32 Bit sein. Andererseits bedeutet insgesamt weniger Code ein Vorteil beim Caching. CISC kann u.U. Code und vor allem Ausführzyklen sparen, d.h. bei
RISC gibt es u.U. mehr
Befehlszyklen.
- Vermutlich ist eine 40/48 Bit CPU eine sehr gute Idee. Die Logik ist einfach: 32 Bit sind zu wenig aber 64 Bit sind unnötig viel. Der goldene Mittelweg sich 48 Bit und zwar mit 40 Bit (5 Byte) Daten und 8 Bit (1 Byte) Zusatzinformationen, z.B. 5 Bit ECC für die 5 Datenbytes, 2 Bit Prioritäts-/Zugriffscode, Segmentcode oder
Privilegienstufe und 1 ECC Bit dazu. Das mag wie Verschwendung von einem Sechstel (16,67%) erscheinen aber der Vorteil durch mehr Sicherheit/Zuverlässigkeit kann das wettmachen. Heutzutage gibt es genug RAM und vor allem gibt es derzeit eine riesige Verschwendung um ein Vielfaches durch ineffizienten Code und überflüssigen Schnickschnack. Siehe auch
Erhebliches Optimierungspotential. Nicht zu vergessen den potentiellen Effizienzgewinn durch 40/48 Bit statt 64 Bit, wenn man letztere nicht immer voll braucht/ausnutzt.
Mit 40 Bit kann man Zahlen bis über 1 Billion darstellen - nicht schlecht aber auch noch wenig und darum sollte die CPU Befehle für Grundrechenarten in 80 Bit haben. Logischerweise gibt es dann auch 5 Byte und 10 Byte
Gleitkommazahlen was zugleich eine willkommene Verbesserung zum alten Datentyp float (4 Byte) und double (8 Byte) ist.
Die CPU sollte nicht zu komplex sein, weitere Funktionen (
Multi Media Extension,
Advanced Matrix Extensions,
AltiVec,
Advanced Vector Extensions, Verschlüsselung, Prüfsummenberechnung, usw.) können in einen
Koprozessor, ein
SoC-Modul oder
Chiplet ausgelagert werden. Der Vorteil ist, dass man so leicht mehrere CPU-Cores und eine oder mehrere weitere Funktionsmodule haben kann, was auch bei der (Parallel-)Programmierung berücksichtig werden kann.
- Man könnte über 10 Bit statt 8 Bit (Byte) nachdenken aber vermutlich ist obiges besser, z.B. wegen der Teilbarkeit und auch weil es besser zur aktuellen Technik paßt - man kann so eher bestehende RAM-Module verwenden.
- Dazu braucht es noch ein modulares Open Source Echtzeitbetriebssystem, das auch für das Militär, die Industrie, Roboter, Smartphones, PCs,
eingebettete Systeme, usw. taugt. Modular bedeutet, dass es für einzelne Funktionen wie z.B. Dateisysteme, USB, Netzwerkstack, usw. verschieden komplexe Module geben kann.
- Es ist ein einfacher, effizienter Grafikchip (GPU) zu entwickeln, z.B. für max. 5 Watt, eher weniger. Da muss auch nicht gleich 4K das Ziel sein, Full HD reicht.
Das ist eine Revolution und die muss auch erstmal überzeugen. Ein erster Schritt kann daher ein konkreter Anwendungsfall sein, zum Testen und zum Überzeugen. Das kann ruhig erstmal mit
FPGAs und dann auch
ASICs relaisiert werden - dazu kann man ja abschätzen, welche Performancevorteile dedizierte Chips/CPUs bringen würden.
Vielleicht kann man da etwas auf Basis vom
Motorola 68000 und eventuell auch
PowerPC machen aber vermutlich eher
CISC. Das ist aber eine Frage an Experten, siehe auch
Analysis: x86 Vs PPC. Ein wichtiger Aspekt ist der Energieverbrauch, der sollte möglichst niedrig sein, auch für spätere
3D Chip Stacks. Die CPU-Architektur sollte vorzugsweise einfach sein, weil man ja einiges Neues einführen will.
Letztendlich ist vielleicht eher die Frage, wer da etwas womit machen will, denn die Regierung läßt derzeit zu wünschen übrig. Denkbare wäre vielleicht ein Versuch auf Basis von 68000 (oder einem Nachfolger) und
AmigaOS. Es geht zuerst darum, die Machbarkeit und Nützlichkeit aufzuzeigen, zu überzeugen. Dabei darf man sich nicht verzetteln (auch nicht mit nutzlosen Diskussionen mit Trollen).
Irgendwie müssen Deutschland und EU überzeugt werden, da ganz groß einzusteigen und zwar mit jährlich Milliarden Euro. Das ist eine Riesenaufgabe - ein kleines Unternehmen kann da nicht so viel machen und es drohen auch ggf. Klagen/Aufkäufe, wenn die Idee sich den Mächten des Bösen als zu gut erweist. Wichtig und unverzichtbar sind Open Source/Hardware und Staatsbeteiligung. Entwickler, welche die ersten Schritte getan haben, können vielleicht einen gut bezahlten Job bei der späteren staatlichen Entwicklung bekommen. (alles imho)
Deutschland muss seine Computertechnik und ITK optimieren
Deutschland braucht robuste, zuverlässige und sichere Computer/Systeme