Es geht schon.
Hugin hat ein Feature, das derartiges ermöglicht.
Es ist nicht ganz simpel zu bedienen. Mathematische Kenntnisse in der linearen Algebra bzw in der Optimierungs-Theorie (simulated annealing etc) sind u.U. hilfreich.
Die genaue Vorgehensweise hängt sehr stark vom Motiv und von den Kamera-Standorten ab. Eine Detail-Beschreibung kann ich daher nicht ohne solche Kenntnisse geben.
Im Prinzip geht es folgendermaßen (viele Begriffe auf englisch, da ich eine selbstgebaute / leicht modifizierte englische Entwickler-Version unter Linux verwende):
Man stellt erst den Experten-Modus ein, dann die geometrische Optimierung auf "customized" und bekommt dadurch einen zusätzlichen Reiter, in dem man jede einzelne Variable mittels Ctrl-Mausklick anwählen kann, ob sie als Anker dienen soll, oder ob sie optimiert werden soll.
Auf dieser Klaviatur muss man nun so spielen, dass keine Entartung (vorsicht, mathematischer Fachbegriff) stattfindet. Falsche Wahl führt zu sehr seltsamen Effekten. Insbesondere darf man nicht zuviele / die falschen Variablen optimieren. Auf das Einhalten von genügend vielen Anker-Punkten muss man ggf von Hand achten, anonsten läuft einem die Optimierung ggf davon.
Das richtige Einstellen in der richtigen Reihenfolge ist nicht trivial und erfordert Erfahrung. Auf die Reihenfolge in verschiedenen Optimierungs-Durchläufen kann es ggf ebenfalls ankommen (abhängig vom Motiv und von den Kamera-Standorten).
Bei bewegter Kamera sind insbesondere die Parameter "Translation Parameters", "Plane Pitch/Yaw", sowie zusätzlich u.U .auch noch die Linsen-Parameter d und e sowie ggf g und t kriegsentscheidend. Außerdem gibt es noch nicht-dokumentierte Spezial-Tricks, um mit Hilfe von künstlich erzeugten weiteren Linsen weitere Optimierungs-Optionen zu erhalten (die aber auch leicht in die Hose gehen können).
Wenn Du keine Erfahrung damit hast: gib mir einen Link auf Deine RAW- oder 16bit-TIF-Bilder, und ich tue mein bestes, um Dir eine *.pto-Datei für Hugin zu liefern, mit der Du dann selber weiterarbeiten kannst. Garantieren kann ich aber nichts: nicht alle Aufnahme-Serien lassen sich zusammenfügen.
Wichtig ist, dass sich die Bilder zu mindestens 25%, besser 30% überlappen.
Um Parallaxen-Fehler zu minimieren, sollten alle Bilder aus möglichst großer Entfernung (mit viel leerem Zwischenraum) und möglichst nur parallel verschoben aufgenommen werden, ohne den Winkel zu ändern, ähnlich wie der Gleis-Vorschlag weiter oben, aber es geht auch mit anderen Hilfsmitteln wie z.B. einem Kompass, der zur Stativ-Ausrichtung genutzt wird, so dass die Kamera stets in exakt dieselbe Himmelsrichtung schaut. Vielleicht gibt es auch eine Wand, an der Du "entlangschrammen" und die Du zur exakten Ausrichtung nutzen kannst. Die Höhe und der Pitch sollten selbstverständlich immer gleich bleiben, was sich aber sehr einfach machen lässt, indem man das Stativ nur verschiebt, ohne irgendeine interne Winkel- oder Höhen-Einstellung abzuändern (vorausgesetzt der Boden ist eben).
Noch ein Tipp: alle Bilder im Hochformat machen, und die Brennweite so wählen, dass eine einzige Reihe für alles ausreicht, so dass oben und unten noch jeweils gut 10% Verschnitt übrig bleibt. Und natürlich genügend viele dieser Bilder mit möglichst großer Überlappung (jedoch nicht mehr als 50%) machen.
Nachtrag: falls zwischen den Maschinen und der Wand
sehr wenig Platz ist, müsstest Du den zwangsläufig zu verwendenden WW dadurch ausgleichen, dass Du eventuell sehr viel mehr Bilder mit deutlich mehr als 50% Überlappung machen müsstest und diese dann links und rechts beschneiden müsstest (viele schmale Streifen), was recht leicht in Hugin mit Hilfe einer (globalen) Maske geht. Allerdings steigt der Gesamt-Arbeitsaufwand dann gewaltig an (wie mein Vorredner schon bei der Häuser-Fassade bemerkte).
Außerdem gängiger Standard bei Stativ-Fotografie: ISO 100 festtackern, A_v mit Blende 8 bis 11, möglichst präzise mit der Liveview-Lupe fokussieren (evtl auch auf Hyperfokal-Distanz oder eine Variante davon), Fernauslöser zur Vermeidung von Verwacklungen und Mikro-Verwacklungen. Aber das kennst Du vermutlich bereits
Das End-Ergebnis wird ein Bild sein, das im Idealfall so aussieht, als wäre eine virtuelle Kamera sehr viel weiter weg gewesen (im Extremfall bis zum Unendlichen). Irritierend wirken derartige "virtuellen Teles" auf Betrachter normalerweise nicht, weil es Ähnlichkeiten mit Teleskop-Aufnahmen gibt (die man mittels weiterer Tricks aber ebenfalls noch reduzieren kann, was den Arbeitsaufwand weiter in die Höhe treibt). Irritierend könnten eventuell nur sehr starke virtuelle Standort-Unterschiede zwischen x- und y-Achse werden, was aber sehr stark vom Motiv abhängt und sich nicht generell vorab bestimmen lässt (außerdem haben sich Betrachter oft schon an Zylinder-Projektionen oder verwandte Projektionen bei Panoramen gewöhnt oder erwarten diese in manchen Fällen sogar). Im Notfall gibt es auch dafür aufwendige Gegenmaßnahmen, die dieses Posting sprengen würden.
Entscheidend ist in jedem Falle, die Parallaxen-Fehler klein zu halten (z.B. mittels virtueller Streifen-Methode), weil diese durchaus störend wirken können.