Was ist die größte Zahl, die ein 64-Bit Computer verarbeiten kann?

anthonius · 02. Juli 2015

Ich denke das sollte doch 2 hoch 64 also 18446744073709600000 sein.

 

Oder kennt jemand einen Trick, wie man noch größere Zahlen verarbeiten kann?

 

Antworten

k520354 · 01. September um 14:56 · 0x hilfreich

Halli Hello, also ich beschätze ein Normaler Pc mit dem richtigen Programm könnte höchstwahrscheinlich Quingentillion mal eine Quingentillion, errechnen und dies in einem Zehntel bis Hundertstel einer Sekunde. Ein einfaches Handy schafft 90Stellen mal 90.... Lg Sven Balzer 

Benial · 22. Oktober 2015 · 0x hilfreich

es müßte mit einer quer/2 multiplikation von einem 32 bit Rechner eine subplikation hoch X geben d.h. nehme ich eine 8 hoch 32 "nur ein Beispiel" könnte ich quer/2ig einer multiplikation relativ zu einem subplikator multiliziert mit einer Rechenwegenverstärkung der Hertz gigatonic unter gegebenen Verhältnissen eine Strichleistung über und unter einem Strich punktionell einbindend addidativ über umwegenhalber umgehen und einen Rechentransmissionsemulator erzeugen das heißt klarer: " gibt man statt der Zahl 2 hoch 32 8 hoch 32 an hat man eine größere Emulationperformance wie gegenüber einer Rechenperformance relativ zu einem 2 hoch 64 bit erlangen!!

Erläuterung quer/2 * X ist Y + t0 *++ X Wurzel ^2 * X = Zeitleistung (tEX) * 8^32 * (Pi=5 statt 3,14xperiode)= 8^X   !!!, stimmt´s?

HOKE · 06. Juli 2015 · 0x hilfreich

Computer rechnen mit Gleitkommazahlen und Exponenten. Eine 64-bit CPU arbeitet je nach geforderter Genauigkeit mit einem 11 bit breitem Exponenten, welcher ±1024 betragen kann.  Die Basis, die 52 bit lange Gleitkommazahl (Fachausdruck Mantisse), welche sich vollständig hinter dem Komma abspielt, kann maximal nahe 2 betragen, (alle bits 1) aber nie 2. (Die 2 stände ja wieder vor dem Komma) 

Die höchste darstellbare Zahl dürfte dann, wenn ich mich nicht vertan habe, (2*2^1024)-1 sein, eine Zahl mit 308 Stellen ;)

Aber Achtung; das heisst nicht dass die direkt darunter liegende Zahl (2*2^1024)-2 ebenfalls korrekt darstellbar sein muss, da es hier Probleme bei der Umrechnung der binären Gleitkommazahl in die dezimale Gleitkommazahl geben kann, das heisst es gibt eventuell einen Rundungsfehler an der 308. Stelle...


https://de.wikipedia.org/wiki/Gleitkommazahl#Berechnung_einer_IEEE_double_precision_Gleitkommazahl_.2864-Bit-Gleitkommazahl.29


Sollte keine so hohe Genauigkeit gefordert sein kann aber natürlich die Mantisse verkürzt und der Exponent verbreitert werden...

k29391 · 05. Juli 2015 · 0x hilfreich

Müsste man wohl eigene Algorithmen schreiben, die aufsplitten oder evtl. könnte man auf der GPU mit deren 128 Bit arbeiten. Bei Google leider keinen passenden Suchbegriff gefunden. Denke mal, die Frage passt besser in ein Programmierforum!

Das_Ding · 03. Juli 2015 · 1x hilfreich

16-Bit-CPUs verarbeiten Zahlen bis 65.535 (2²²) in einem Schritt, 32-Bit-CPUs verarbeiten Zahlen bis 2³², also etwa vier Milliarden, in einem Rechenschritt. 64-Bit-CPUs schaffen das mit Zahlen bis 2²x³², also etwa 18 Trillionen (18 Milliarden Milliarden). Eine Multiplikation wie beispielsweise 72 057 594 037 927 936 x 122 = 8 791 026 472 627 208 192 gehört für eine 64-Bit-CPU noch zum „kleinen Einmaleins“.

k454204 · 02. Juli 2015 · 1x hilfreich

18446744073709600000

 

+-0

 
 

Frage stellen

 
 
Suchbegriff