Project Black Mirror est un projet de jeunes ingénieurs qui mis en place un système de reconnaissance de pensées pour Siri, le programme d’assistance vocale d’Apple de l’iPhone 4S, en utilisant la Technopathie (contrôler un équipement électronique avec la pensée).
Comme me l’indique Lionnel par mail, ce serait une avancée extraordinaire pour les personnes atteintes de surdité et de déficience auditive.
Les jeunes tentent de se faire connaitre pour récolter des fonds afin d’améliorer leur système et de, pour quoi, le commercialiser un jour.
Le détails en anglais :
1. ECG pads provide raw skin conductivity / electrical activity as analogue data (0-5v).
2. This is plugged into the Arduino board via 4 analogue inputs (no activity = 0v, high activity = 5v).
3. The Arduino has a program burnt to it’s EPROM chip that filters the signals.
4. Josh trained the program by thinking of the main Siri commands (« Call », « Set », « Diary » etc.) one at a time and the program where we captured the signature brain patterns they produce.
5. The program can detect the signature patterns that indicate a certain word is being thought of. The program will then wait for a natural ‘release’ in brain waves and assume the chain of commands is now complete and action is required.
6. The series of commands are fed to a SpeakJet speech synthesiser chip
7. The audio output of which simply plugs into the iPhone’s microphone jack
Plus d’infos sur leur blog.