Themabewertung:
  • 0 Bewertung(en) - 0 im Durchschnitt
  • 1
  • 2
  • 3
  • 4
  • 5
Videos
#51
(04.11.2019, 11:03)kalter hornung schrieb: Ja, nur geht es hier weniger um den Bildausschnitt und Zoom an sich, sondern um die scheinbare Vergrößerung von Objekten in der Bildtiefe gegenüber näheren Objekten, die dann optisch die Abstände "verkürzen". Da kann ein Handy das verlängerte Objektiv und größere Brennweite eben doch nicht austricksen.

Der Punkt ist, ein Laie nimmt Standardeinstellung und zoomt dann. Damit ist dieser Effekt der optischen Verkürzung imo nicht zu erreichen.

@kalter hornung

Doch! Die optische Verkürzung hat allein etwas mit der Entfernung (vom Auge bzw. der Linse) zum Abgebildeten zu tun. Wir nehmen das nur üblicherweise nicht bewußt wahr. 
Nimm eine Kamera mit einem Zoomobjektiv und probiers aus! 
Stell dich irgendwo hin (irgendwo ist natürlich eine geeignete Szenerie). Mach eine Aufnahme mit einer kurzen Brennweite (Weitwinkel) und eine Aufnahme - in die gleiche Richtung und von etwas geeignet weit Entferntem - mit einer deutlich längeren Brennweite ... und vergleiche. Das Teleobjektiv vergrößert (im Sinne macht besser sichtbar, weil es größer abgebildet wird) nur die optische "Verkürzung", die auch im Weitwinkelbild zu sehen ist...
Antworten
#52
(04.11.2019, 11:24)Boris B schrieb: @kalter hornung

Doch! Die optische Verkürzung hat allein etwas mit der Entfernung (vom Auge bzw. der Linse) zum Abgebildeten zu tun. Wir nehmen das nur üblicherweise nicht bewußt wahr. 
Nimm eine Kamera mit einem Zoomobjektiv und probiers aus! 
Stell dich irgendwo hin (irgendwo ist natürlich eine geeignete Szenerie). Mach eine Aufnahme mit einer kurzen Brennweite (Weitwinkel) und eine Aufnahme - in die gleiche Richtung und von etwas geeignet weit Entferntem - mit einer deutlich längeren Brennweite ... und vergleiche. Das Teleobjektiv vergrößert (im Sinne macht besser sichtbar, weil es größer abgebildet wird) nur die optische "Verkürzung", die auch im Weitwinkelbild zu sehen ist...

Funktionsweise eines Zoomobjektivs: https://de.wikipedia.org/wiki/Zoomobjekt...5-to28.jpg

Die Objekte im Hintergrund werden bei zunehmender Brennweite "größer" im Vergleich zu Objekten im Mittelgrund. Dadurch entsteht der Eindruck, die Entfernungen zwischen den Objekten seien geringer als sie in der Realität sind. Dasselbe umgekehrt bei Weitwinkel. Selbst wenn ein Handy 50 mm Brennweite schaffen sollte, ist diese optische Verkürzung der Raumtiefe wie im MDR-Foto imo nicht zu erreichen. Dort rückt selbst der verschwommene Hintergrund einer Häuserfront optisch heran. Ich vermute deshalb ein Teleobjektiv/Telezoom (wobei die generelle Unschärfe bei heutigen Auflösungen zu klären wäre), aber letztlich ist die Frage, ob die Aufnahme von einem "weiteren Profi" stammt, für mich nicht entscheidend.
Antworten
#53
(04.11.2019, 11:52)kalter hornung schrieb:
(04.11.2019, 11:24)Boris B schrieb: @kalter hornung

Doch! Die optische Verkürzung hat allein etwas mit der Entfernung (vom Auge bzw. der Linse) zum Abgebildeten zu tun. Wir nehmen das nur üblicherweise nicht bewußt wahr. 
Nimm eine Kamera mit einem Zoomobjektiv und probiers aus! 
Stell dich irgendwo hin (irgendwo ist natürlich eine geeignete Szenerie). Mach eine Aufnahme mit einer kurzen Brennweite (Weitwinkel) und eine Aufnahme - in die gleiche Richtung und von etwas geeignet weit Entferntem - mit einer deutlich längeren Brennweite ... und vergleiche. Das Teleobjektiv vergrößert (im Sinne macht besser sichtbar, weil es größer abgebildet wird) nur die optische "Verkürzung", die auch im Weitwinkelbild zu sehen ist...

Funktionsweise eines Zoomobjektivs: https://de.wikipedia.org/wiki/Zoomobjekt...5-to28.jpg

Die Objekte im Hintergrund werden bei zunehmender Brennweite "größer" im Vergleich zu Objekten im Mittelgrund. Dadurch entsteht der Eindruck, die Entfernungen zwischen den Objekten seien geringer als sie in der Realität sind. Dasselbe umgekehrt bei Weitwinkel. Selbst wenn ein Handy 50 mm Brennweite schaffen sollte, ist diese optische Verkürzung der Raumtiefe wie im MDR-Foto imo nicht zu erreichen. Dort rückt selbst der verschwommene Hintergrund einer Häuserfront optisch heran. Ich vermute deshalb ein Teleobjektiv/Telezoom (wobei die generelle Unschärfe bei heutigen Auflösungen zu klären wäre), aber letztlich ist die Frage, ob die Aufnahme von einem "weiteren Profi" stammt, für mich nicht entscheidend.

@Kalter Hornung

Ich war heute noch mal vor Ort. Das folgende Foto ist mit 90mm Brennweite (auf Vollformat bezogen) auf Höhe der Hausnummer 16 (Eingang) gemacht worden.

[Bild: attachment.php?aid=2072]

Wenn's bei deiner Analyse hilft laß es mich wissen. Anderenfalls verrat mir, worauf es dir im konkreten Fall genau ankommt.


Angehängte Dateien Thumbnail(s)
   
Antworten
#54
[Bild: 3mBoc3s.jpg]

Du siehst im Hintergrund eine Hausfront/Fassade. Nach Google Maps dürfte das das Seniorenheim Steintorpalais in südöstlicher Richtung sein (Paracelsusstraße). Das ist vom Aufnahmepunkt MDR-Foto etwa 450 Meter (!) entfernt, erscheint im Foto aber stark herangerückt und unnatürlich "vergrößert" (im Vergleich zum Mittelgrund). Das verweist auf einen Telezoom mit großer Brennweite. Damit scheidet ein Handy aus und es deutet auf eine Profiaufnahme, bei der die Raumtiefe "groß gemacht" werden sollte.
Antworten
#55
(04.11.2019, 19:53)kalter hornung schrieb: [Bild: 3mBoc3s.jpg]

Du siehst im Hintergrund eine Hausfront/Fassade. Nach Google Maps dürfte das das Seniorenheim Steintorpalais in südöstlicher Richtung sein (Paracelsusstraße). Das ist vom Aufnahmepunkt MDR-Foto etwa 450 Meter (!) entfernt, erscheint im Foto aber stark herangerückt und unnatürlich "vergrößert" (im Vergleich zum Mittelgrund). Das verweist auf einen Telezoom mit großer Brennweite. Damit scheidet ein Handy aus und es deutet auf eine Profiaufnahme, bei der die Raumtiefe "groß gemacht" werden sollte.

@Kalter Hornung

Anbei vier Bilder, die dich hoffentlich überzeugen können. Ich stehe dazu an der Haltestelle Willi-Lohmann-Str.

Das ersten beiden Bilder zeigen das volle Bild (aber jeweils auf 1280 Pixel Breite runtergerechnet!) Ich schreibe unters Bild die jeweilige Brennweite (bezogen auf das sog. Vollformat - sprich Sensorgröße 24x36mm).

[Bild: attachment.php?aid=2073]

28 mm (Weitwinkel; dürfte ungefähr dem Blickwinkel vieler Smartphones entsprechen)

[Bild: attachment.php?aid=2074]

90 mm

Nun zu den zwei folgenden Fotos: Das sind jeweils Ausschnitte aus den Bildern zuvor. Beim ersten Bild habe ich einfach den Ausschnitt aus der Originaldatei (das 90mm-Bild ist es) herauskopiert.

Das zweite Bild ist (ungefähr) der gleiche Ausschnitt wie zuvor, aber aus der Weitwinkelaufnahme. Damit es die gleiche Größe bekommt habe ich es auf 321 Prozent hochskaliert (Das erzeugt den unscharfen Eindruck).

Wie du unschwer erkennst siehst du das oberste Geschoß des Seniorenpalais am Steintor. (Wenn ich eine Aluleiter von 5 Meter Höhe dabei gehabt hätte ... wären ein paar Stockwerke mehr zu sehen. Big Grin )

[Bild: attachment.php?aid=2075]

[Bild: attachment.php?aid=2076]

Moderne Smartphone-Kameras haben durchaus 12 - 16 Megapixel Auflösung!

Das Haltestellenschild für die Tram, daß du auf den Bildern 3 & 4 siehst ist übrigens das in der Nähe der Stelle, an der die Polizei stand und zurück geschossen hat.


Angehängte Dateien Thumbnail(s)
               
Antworten
#56
@ Boris

Also ja, wirklich verblüffend. Es ist doch sehr gut möglich, daß es ein Handyfoto ist. Die verzerrte Raumstaffelung im MDR-Foto sieht mir zwar immer noch nach Telezoom aus, aber ich würde nicht mehr drauf schwören. Der "weitere Profi" neben Splett ist damit vorerst erledigt.
Antworten
#57
Wenn man sich das Programm ffmpeg installiert, kann man mit dem Befehl (unter Windows in der Eingabeaufforderung)

ffmpeg -ss xx:xx -t xx:xx -i quelldateiname.mp4 -vsync vfr zieldateiname-%04d.png

sich alle Frames im gewählten Zeitabschnitt in mutmaßlich besserer Auflösung speichern, als per Standbild im Videoplayer, mit

ffmpeg -ss xx:xx -t xx:xx -i quelldateiname.mp4 -vf "select=eq(pict_type\,I)" -vsync vfr zieldateiname-%04d.png

kann man sich alle "key frames" im gewählten Zeitabschnitt speichern. Es wird gelegentlich behauptet, daß das die mit den meisten Originalinformationen seien, ich bin da aber nicht sicher.

Bei großen Zeitabschnitten muß man die 4 im Zieldateinamen durch eine höhere Zahl ersetzen, sonst können die Frames nicht richtig numeriert werden.
Antworten
#58
(19.10.2019, 10:08)A.Hauß schrieb: "...was dann letztendlich doch zum Abbruch des Streams führte... Huh"
Welcher Stream?
Weshalb gehen Sie mir dieser Selbstverständlichkeit davon aus, dass die Behördenbehauptung, hier sei etwas live hochgeladen worden, wahr ist? Nur weil manche Spielszenen mit der nachgestellten Realität zeitlich übereinstimmen?
Nur weil der Herr Andreas Spell "zufällig" von oben etwas filmte, was mit den Aufnahmen der Helmkamera mehr oder minder übereinstimmte?
Bitte bedenken Sie: aus welchem Grund hatte der Täter  des Spiel-Films, in einer Spiegelung sichtbar, ZWEI Kameras? Wenn Helm- und Schulterkamera benutzt werden, werden  doch nicht ZWEI Filme hochgeladen. Wenn jedoch nur einer gestream wird, ist der andere doch nutzlos. Da  dessen Aufnahmen jedoch, wie von Boris B. beschrieben, Eingang in den "Stream" finden, handelt es sich aber eben nicht um einen Stream, sondern um einen geschickt geschnittenen Film  aus verschiedenen Rohdaten. Dies nur als technische Ergänzung zu den auf game deutenden anderen Faktoren wie fehlenden Einschüsse, fehlendem Tatüttata, fehlenden Schmerzensschreien, fehlendem Blut, fehlender Logik, irrender Polizei, usw.

Ich denke, dass dieser Ansatz hier schon ziemlich nahe an der (virtuellen) Realität sein dürfte.
Nur scheint es sich bei dem Video nicht um Bildschnitt, sondern um ein volldigital konstruiertes Produkt zu handeln, aufbauend auf dem modernsten, was mit digitaler Technik derzeit möglich zu sein scheint (mit ein paar Ausnahmen aus Hollywood).
Hatte n bisschen recherchiert und seit 2 Monaten versucht, hier was zu schreiben aber funzte nicht...
zur Sache:
(vorsicht, tangiert mehrere Themenfelder)
Es gibt von der Uni BREMEN ein Projekt bzw. wird über die Uni (und noch einige andere Unis & Firmen)
ein Forschungsprojekt der EU (im Rahmen von HORIZON2020) durchgeführt, welches bereits ein paar Jahre läuft und mit verschiedensten anderen Projekten parallele Erfolge feiert (meist völlig unterschiedliche Start-und Endtermine sowie Laufzeiten). Finanziert über EU-Gelder und "Drittmittel" von Firmen aus den Bereichen
Medien/Informatik/VR/AR/ioT/Programmierung/Architektur/Kybernetik

https://cordis.europa.eu/project/id/688244
Start date 1 June 2016 End date 31 May 2019
Funded under    H2020-EU.2.1.1. Overall budget € 3 031 510

https://ec.europa.eu/digital-single-market/en/news/eu-project-develops-virtual-reality-application-theatre-and-film-productions
Last update: 25 October 2019
Interactive Technologies, Digital for Culture & Education (Unit G.2)

...insgesamt fließen da noch mehr Gelder rein, aber nur um aufzuzeigen, dass der VR-Bereich finanziell gerade gut unterstützt wird.
mehr INFO googeln:

- Using Tangibles with Different Fidelities to Build and Explore Scenes in Virtual Reality-3290605.3300903
- CORDIS_project_688203_(16.07.2020) Building an IoT OPen innovation Ecosystem for connected smart objects en
- CORDIS_article_415772Fast and easy previsualisation for creative industries_de
- Breaking The Experience- Effects of Questionnaires in VR User Studies-paper017vf
- CORDIS_project_688244_Periodic Reporting for period 2 - first.stage (Fast and easy previsualisation for creative industries) de
- EU-Projekt- Virtual-Reality für Theater- und Filmproduktionen - Universität Bremen
- CORDIS_article_386886-Erweiterte Realität und tragbare Technologien transformieren Lern- und Ausbildungsprozesse in der Industrie-2019-augmented-reality-and-wearable-technology-transforming-industrial-learning-and-training_
- CORDIS_article_124539-how-to-unleash-the-full-potential-of-the-internet-of-things_en
- CaseStudy_FusionCIS_Carbon3D_final


Ergebnisse liefert zB :
http://first-stage.eu
Project Coordinator
Prof. Dr. Rainer Malaka
Digital Media Lab
(TZI) University of Bremen
MZH 5340
Bibliothekstr. 1
D-28359 Bremen

Damir verknüpft ist weiterhin:
ROKOKO.com
und ein von denen produzierter/entwickelter SMARTSUIT
https://www.rokoko.com/products/smartsuit-pro

Weiterhin noch mit an Bord:
VOGEL AudioVision (Medienunternehmen)

Uni Bremen

Landestheater Linz

MAXWELL Studio/NEXT LIMIT(Anyverse)/Anima/RealFlow

arxANIMA

InfoConsult GmbH (HRB 1732 in Bremen) - > Referenzen anschauen!

CineMOTION

indirekt noch:
EMPIRICA GESELLSCHAFT FUR KOMMUNIKATIONS UND TECHNOLOGIEFORSCHUNG MBH
UCLOUD (aus HongKong)
MoCAP Kiev . ua
Digital Media Technology (HOLLOWMAN)
und DISNEY STUDIOS

Aufgrund des bisherigen Videomaterials würd ich sagen, dass die o.g. Soft- und Hardware verwendet wurde.
Darüber hinaus kann man die verwendeten Örtlichkeiten des Halle-Anschlags in mehreren Doku-Videos auf Youtube finden (TV Halle mein ich), wo altes Filmmaterial gezeigt wird über die Stadt.
Wer genau hinschaut, oder mit den Helligkeits- und Kontrastwerten der Playingsoftware rumspielt (negativ-ansicht funktioniert perfekt), kann erkennen, dass es sich um verschiedene Layer handeln muss, die so auch etwas abgeändert (Textur/Farbe/Licht) Verwendung im Täter Video finden.
Ebenso gibt es einige als virtuelle Stadtführung gekennzeichnete Videos auf Youtube und bei TVHalle...wenn man die glatte Kameraführung beachtet, kommt man nur zu zwei Schlüssen: Drohnenvideos oder komplett digital gestaged. Ich gehe von letzterem aus...sprich: Oberflächentexturen und Gebäudelayer ausm Archiv, dazu zumindest n großteil der Handlung digitale Erzeugnisse. Die Software hat allerdings ein paar Schwachstellen: Höhenunterschiede können nicht verarbeitet werden (weshalb auch beim Einsteigen ins Auto n Schwenk kommt) und im Nackenbereich kann es zu Bildfehlern kommen, da der SUIT dort keinen Sensor besitzt (hierzu mal aktuelle Tagesschau im Ersten anschauen und mal drauf achten, wie viele Figuren dort digital eingepflegt wurden!).

Die Software bzw. o.g. VR bzw. AR-Anwendungen werden übrigens bei verschiedensten Games verwendet, die mit Unreal-Engine arbeiten. Aus Halle kommt übrigens rein zufällig eines dieser Games (Egoshooter, Erscheinungsdatum war 10/2019). Mutterkonzern war aus Florida...achja und irgendwo bei youtube gab's n entsprechendes PREVIEW ein paar Monate vorher, wo ich rein zufällig mal reingeschaut hab und man höre und staune, dort sind Sounds/Sprachfetzen enthalten, die im Tätervideo auch auftauchen (zB das markante Fluchen des Täters und das Fallen der Hülsen). Leider hab ich den Namen von Video und Spiel vergessen, bzw. find den Zettel, wo ich s notiert hab nicht mehr.

Die Technik hat insgesamt Ähnlichkeit mit den aktuell hier und da thematisierten DEEPFAKES, FACE SWAPS und allem, was sich um Gesichter morphen dreht.
Hierzu kann man übrigens auch mal den
Dr. Drosten in der google Bildersuche mit einem Herrn Koschke
(Tzi Technologiezentrum für Informatik und Informationstechnologie- Presseartikel vom 25.10.2019 ... Bild zB newsimage324163.jpg)
bei der Uni Bremen vergleichen (n bisschen skalieren muss man schon....).
Die Daten passen sehr gut überein mit den Trainingsdaten, die im EU-Forschungsauftrag zum Training der KI-Gesichtserkennungssoftware verwendet wurden/werden...aber das führt etwas zu weit in andere Themenfelder...nur mal zum nachforschen zB wurde in der Tagesschau mehrfach das gleiche Bildmaterial für unterschiedliche Personendarstellungen benutzt, teilweise sogar während einer Sendung 4x.
...um mal die angegebenen Namen aufzuzeigen
(Beobachtungszeitraum: Oktober-November 2020 ; Wo: Das Erste-Tagesschau 20:00Uhr):

SWETLANA TICHANOWSKAJA,38 Lehrerin/Oppositionsführerin Belarus (Thema Weissrussland-S.T. angeblich zu Gast in Berlin bei Merkel)
DILEK KALAYCI,SPD Vorsitzende Gesundheitsministerkonferenz (Thema?)
Aline Neu, Apothekerin  (Thema Impfen)
Swetlana Alexijewitsch, 72 Jahre, Schriftstellerin (Thema?)
Nadia Cruz, Nationale Ombudsfrau Bolivien (Thema Corona)
Hon. Amy Coney Barret (Thema USA)
&...die Dame, die gelegentlich die Börsennachrichten in der Tagesschau vermeldet.

Bei der google-Bildersuche findet man bei Suche nach obigen Personen auch Bilder von zB:
Deborah Feldmann - Halle (Bildname: 200323-1133-urn-newsml-dpa-com-20090101-200323-99-433275)

Erweiternd dazu noch folgendes Detail:
Das BSI
hat im Oktober 2019 "rein zufällig" in Halle/Leipzig die
-- Agentur für Innovation in der Cybersicherheit-Halle/Leipzig --
eröffnet, auf HalleTV und wiki wird die Eröffnung mehrfach umgedeutet in den Oktober 2020 und April 2020, was aber faktisch nicht stimmt, da die Information bzgl 10/2019 darüber bereits seit Januar 2020 vorliegt. Warum sollte man der Öffentlichkeit eine spätere Eröffnung vorgaukeln, obwohl bereits im Oktober ausgerechnet im Zeitlichen Kontext eines Anschlags die Agentur bezogen wurde, die auch nur rein zufällig genau das passende Themengebiet behandelt.

Hinzu kommt noch, dass in Halle scheinbar viel in puncto Digitalisierung läuft und aktuell rund um das Theater so einiges an Medienunternehmen Stellung bezogen hat. Über Halle+VR oder AR findet man schon so einiges...dazu später und in nem anderen Thread mehr Wink

Am Rande:
Das japanische Nippon-Audio, was im Tätervideo zwischendurch erklingt, ist aus einem Videospiel.

So, erstmal zum warm werden n bisschen für die Recherche...vielleicht hilfts ja schon weiter, hab noch mehr Auffälligkeiten erarbeitet, die kommen dann später Wink
Antworten
#59
Das Frustrum und der Hyper Bowl
https://www.danisch.de/blog/2020/12/17/d...yper-bowl/

könnte sein, darum oder warum auch immer meldet die Polizei die Schießerei in der LuWu nicht live an die Zentrale?
Auch die Hand die zur "Synagogentür" greift und doch nur ein Mauszeiger (oder was?) ist spricht (in diesem Teil der Aufnahme)  für VR.
Das merkwürdige fallen der Türklinke entzieht sich ebenfalls einer Tatrekonstruktion (herausziehen des Vierkant) und ist mit VR gut erklärbar.

... was mir neu aufgefallen, wie der schwarze PKW als Wachposten parkt mit extra viel Platz zum Gehweg für die "Flucht"  und mit eingeklapptem Spiegel


(17.12.2020, 15:41)ossi schrieb: Hier der schwarze PKW aus dem Rückspiegel als B. gegen 12:07 abfuhr und dessen Fahrer bis zum eintreffen der Polizei  12:11 was genau tat?

Foto: "Erste Polizei am Tatort" (Und gemäß Schuh muss der Körper auf den Rücken liegen. Wer hat Jana gedreht?)
[Bild: b-erste-polizei-am-tatort-151019.jpg]
Antworten
#60
Videos live manipulieren - Diminished Reality
https://www.youtube.com/watch?v=eUYjqDGe_kg




11.10.2010  FOCUS Online
https://www.focus.de/digital/videos/diminished-reality-videos-live-per-fingerzeig-manipulieren_vid_20451.html

https://twistedsifter.com/videos/real-time-video-manipulation-tech-is-impressive-and-terrifying/
Antworten


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste