Den Entwicklern hinter dem Black Mirror Projekt ist es gelungen, 25 verschiedene Gehirnwellen-Muster mit veschiedenen Funktionen von Siri zu verbinden. Die (in diesem Video vorher bereits aufgezeichneten) Muster werden über EKG gemessen, über einen „Speech Synthesiser“ in gesprochene Befehle umgewandelt, und dann von Siri als Befehle verstanden und ausgeführt.
Das Ergebnis: Man muss mit Siri in Zukunft vielleicht nicht einmal mehr sprechen – ausgezeichnet z.B. für stumme Benutzer.
httpvh://www.youtube.com/watch?v=xFIRmnRHNUM
Mehr Details zum Aufbau:
1. ECG pads provide raw skin conductivity / electrical activity as analogue data (0-5v).
2. This is plugged into the Arduino board via 4 analogue inputs (no activity = 0v, high activity = 5v).
3. The Arduino has a program burnt to it's EPROM chip that filters the signals.
4. Josh trained the program by thinking of the main Siri commands (“Call”, “Set”, “Diary” etc.) one at a time and the program where we captured the signature brain patterns they produce.
5. The program can detect the signature patterns that indicate a certain word is being thought of. The program will then wait for a natural ‘release' in brain waves and assume the chain of commands is now complete and action is required.
6. The series of commands are fed to a SpeakJet speech synthesiser chip
7. The audio output of which simply plugs into the iPhone's microphone jack.
5 Kommentare
Kommentare sind geschlossen.
Per EKG? Mit ganzem Herzen bei der Sache gewesen 😉
(Antwort bearbeitet)
Laut Beschreibung handelt es sich wirklich um EKG (Elektro-Kardiogramm)-Sonden, die am Kopf angebracht werden.
Der Autor glaubt dOch selber daran nicht.
http://futurezone.at/future/5905-siri-video-zur-gedankensteuerung-gefaelscht.php
War nur ein Fake aber lange dauert es sowieso nicht mehr obwohl ich nicht dafür bin