*ächz* 10 Jahre dumpen und neu Einlesen ... Never ...
Was dabei so ewig dauert ist das Aktualisieren der Indices nach
jeder
Änderung. So mache ich das
einmal zum Schluß. Wenn ich 100 Mio
Sätze einlese gibt das einen
sehr deutlichen Unterschied.
Die Indizierung ist auch geteilt, ich habe keinen binären Baum sondern nur eine
einfache Tabelle mit den sortieren Suchbegriffen/Indexdaten. Der Rest läuft dann
bei der Suche. Bei den dicken Dingern habe ich den ersten Treffer bzw eine
Aussage ob's überhaupt da ist nach max 15 Vergleichen. Während der suche
müssennoch die Benutzerrechte festgestellt und gewertet werden, natürlich mit
Gruppenrechten, IP-Adressen und anderem Krempel. Die Trefferliste wird dann
im Browser angezeigt und per Klick ist dann das PDF da.
Das Teil ist recht komplex, dazu kommen noch jede Menge Im- und Exportmöglichkeiten,
bis zur autonom laufenden CD mit zertifizierten Dokumenten (und einem kleinen
PDF-Interpreter
).
Ich denke, das gibt PHP nicht mehr her, dafür ist es auch nicht gemacht.
Ich muß das mal ausprobieren bin aber etwas skeptisch (deshalb frage ich ja
hier mal). Im Normalöfall sind ans Web geklemmte Datenbanken, glaube ich,
etwas kleiner
Edit: Noch ein gravierendes Problem: Migration.
Wenn's dumm läuft habe ich alle Jahre eine neue Datenbankversion und kann
die Datenbanken migrieren. Dann gute Nacht.