Große mySQL-Datenbank importieren

atwo

notorisch abwesend
ID: 195558
L
20 April 2006
2.275
138
Hi,
ich habe eine circa 26 MB große Datenbank im *.sql-Format. Leider kann ich die Datenbank nicht einfach so importieren, da angezeigt wird, dass die Datei zu groß ist (kein Timeout!).
Weiß jemand Rat?
Gruß, atwo
 
öffne die Datei und kopiere immer nur Teile in das Textfeld, so kannst du die DB Teil für Teil einpflegen.

Edit: Jackpot! Post Nr. 777
 
öffne die Datei und kopiere immer nur Teile in das Textfeld, so kannst du die DB Teil für Teil einpflegen.

Edit: Jackpot! Post Nr. 777
Das war auch meine erste Idee, aber leider sind sehr viele Transaiktionsdaten etc. dabei, sodass die ganze Datei sehr unübersichtlich ist und ich es nicht geschafft habe, einzelne Tabellen zu finden.

//edit: GW zum Jackpot :mrgreen:
 
Falls du einen SSH-Zugang hast lässt sich das einfach
in der Konsole mit dem Programm mysqlimport oder auf
die "alte" Art und Weise erledigen - z.B. so:
Code:
mysql -p -h localhost DBNAME < DATEI.sql

Und wenn kein SSH verfügbar ist, kannst du es
mit dem MySQLDumper versuchen.
 
PhpMyAdmin kann auch mit zip-Dateien umgehen. Könntest also Glück haben, dass dann die Datei klein genug ist.
Ansonsten würde ich den Support fragen, ob der die Daten einspielen kann (der macht das garantiert über die Konsole).

anddie
 
PhpMyAdmin kann auch mit zip-Dateien umgehen. Könntest also Glück haben, dass dann die Datei klein genug ist.
Ansonsten würde ich den Support fragen, ob der die Daten einspielen kann (der macht das garantiert über die Konsole).

anddie


Bringt nicht wirklich was die Komprimierung, ich hatte ein ähnliches Problem. Die Komprimierung hat zwar den Upload beschleunigt, aber das Problem ist die Ausführung der paar Tausend MySQL Befehle. Ich hab versucht das Ganze mit ner 39 Mb sql Datei zu machen. War spassig.

Meine Lösung war letztlich, dass ich mir ein php Skript geschrieben hab, das auf localhost lief (aber des ist letztlich ja wurscht), dass die SQL Datei in Dateien á 5000 Datensätzen zerlegt hat. Damit kam der Server wunderbar zurecht, und ich hatte meinen Spass etwas mehr als 40 Dateien hoch zu laden ;-)
 
ansonten kannste auch mal versuchen

PHP:
<?
exec("mysql -uUSERNAME -pPASSWORT -h localhost DBNAME < DATEI.sql");
?>
 
->https://script-test.de/
mysql-Datenbank->mysqlfront

damit sollte es gehen, wenns o nciht nur übers programm geht, dann mußt erst local machen und dann von der loacalen Db auf die andere übertragen, kann zwar dann etwas dauern, aber geht 100% mache ich auch öfter mit sehr großen db daten!
 
warum so kompliziert?

man nehme mysqldumper, lade dann das dump per ftp in den ordner work/backup und schon kann man das das backup über den browser per mysqldumper problemlos einspielen.

ich hoffe geholfen zu haben.


grüße
sTyL3R
 
jo, also entweder mysql-dumper oder bigdump nutzen, wobei 2. speziell für große dumps programmiert wurde, die phpmyadmin nicht mehr schafft.
oder man suche ihn google nach dem SQLSplitter und splittert die SQL-Datei in 4-5 Teile auf und fügt sie nacheinander ein
 
warum so kompliziert?

man nehme mysqldumper, lade dann das dump per ftp in den ordner work/backup und schon kann man das das backup über den browser per mysqldumper problemlos einspielen.

ich hoffe geholfen zu haben.


grüße
sTyL3R

Ich weiß der Thread ist uralt, aber ich mache keinen neuen auf, da es genau mein Problem ist.

Was muss ich dann eingeben (über den browser im mysqldumper) , oder wo klicken - um eine bereits gesicherte Datei in eben eine neue leere einzupflegen?

Edit: hat sich erledigt.
 
Zuletzt bearbeitet: