Halli Hello, also ich beschätze ein Normaler Pc mit dem richtigen Programm könnte höchstwahrscheinlich Quingentillion mal eine Quingentillion, errechnen und dies in einem Zehntel bis Hundertstel einer Sekunde. Ein einfaches Handy schafft 90Stellen mal 90.... Lg Sven Balzer
es müßte mit einer quer/2 multiplikation von einem 32 bit Rechner eine subplikation hoch X geben d.h. nehme ich eine 8 hoch 32 "nur ein Beispiel" könnte ich quer/2ig einer multiplikation relativ zu einem subplikator multiliziert mit einer Rechenwegenverstärkung der Hertz gigatonic unter gegebenen Verhältnissen eine Strichleistung über und unter einem Strich punktionell einbindend addidativ über umwegenhalber umgehen und einen Rechentransmissionsemulator erzeugen das heißt klarer: " gibt man statt der Zahl 2 hoch 32 8 hoch 32 an hat man eine größere Emulationperformance wie gegenüber einer Rechenperformance relativ zu einem 2 hoch 64 bit erlangen!!
Erläuterung quer/2 * X ist Y + t0 *++ X Wurzel ^2 * X = Zeitleistung (tEX) * 8^32 * (Pi=5 statt 3,14xperiode)= 8^X !!!, stimmt´s?
Computer rechnen mit Gleitkommazahlen und Exponenten. Eine 64-bit CPU arbeitet je nach geforderter Genauigkeit mit einem 11 bit breitem Exponenten, welcher ±1024 betragen kann. Die Basis, die 52 bit lange Gleitkommazahl (Fachausdruck Mantisse), welche sich vollständig hinter dem Komma abspielt, kann maximal nahe 2 betragen, (alle bits 1) aber nie 2. (Die 2 stände ja wieder vor dem Komma)
Die höchste darstellbare Zahl dürfte dann, wenn ich mich nicht vertan habe, (2*2^1024)-1 sein, eine Zahl mit 308 Stellen ;)
Aber Achtung; das heisst nicht dass die direkt darunter liegende Zahl (2*2^1024)-2 ebenfalls korrekt darstellbar sein muss, da es hier Probleme bei der Umrechnung der binären Gleitkommazahl in die dezimale Gleitkommazahl geben kann, das heisst es gibt eventuell einen Rundungsfehler an der 308. Stelle...
Sollte keine so hohe Genauigkeit gefordert sein kann aber natürlich die Mantisse verkürzt und der Exponent verbreitert werden...
Müsste man wohl eigene Algorithmen schreiben, die aufsplitten oder evtl. könnte man auf der GPU mit deren 128 Bit arbeiten. Bei Google leider keinen passenden Suchbegriff gefunden. Denke mal, die Frage passt besser in ein Programmierforum!
16-Bit-CPUs verarbeiten Zahlen bis 65.535 (2²²) in einem Schritt, 32-Bit-CPUs verarbeiten Zahlen bis 2³², also etwa vier Milliarden, in einem Rechenschritt. 64-Bit-CPUs schaffen das mit Zahlen bis 2²x³², also etwa 18 Trillionen (18 Milliarden Milliarden). Eine Multiplikation wie beispielsweise 72 057 594 037 927 936 x 122 = 8 791 026 472 627 208 192 gehört für eine 64-Bit-CPU noch zum „kleinen Einmaleins“.
18446744073709600000
+-0