Tischlein, rede und spiele mit mir
Integrierte Radartechnologie erleichtert Altenpflege
In unserer immer älter werdenden Gesellschaft nehmen Demenzerkrankungen weiter zu. Besonders schwer erkrankte Patient*innen reagieren meist nur noch über Mimik und Gestik. Abhilfe soll nun ein Tisch schaffen, der mittels modernster Radartechnologie auf einer Oberfläche handelsübliche Gegenstände mit interaktiver Kommunikationstechnologie verbindet. Sowohl in der Beschäftigungstherapie von Menschen mit Demenz wie auch individuell pflegebegleitend kann dieser eingesetzt werden. Die Idee stammt von den Radarspezialist*innen aus dem Fraunhofer IZM. Im Rahmen des Projekts DAYSI entwickelt das IZM gemeinsam mit Partnern aus den Bereichen Pflege, Möbel- und Softwareherstellung einen durch Gesten steuerbaren Tisch, der in Schrift, Bild und Ton kommuniziert.
Der erste Tag in einer pflegenden Einrichtung oder auch im angepassten Zuhause ist für demenziell erkrankte Menschen und ihre Angehörigen oft nicht leicht. Das bisherige Leben wird auf einen Raum, bestehend aus einem Stuhl, Bett, Tisch und einer Anrichte, und ein kleines Bad reduziert. Dank des laufenden Projekts DAYSI können diese Möbelstücke aber bald mit den Betroffenen kommunizieren und zu einer großen Unterstützung im Alltag der Erkrankten und deren Betreuung werden.
Grundlage ist ein einfacher Tisch, der mit Radar- und Kommunikationstechnologie ausgestattet ist. So kann beispielsweise in einer Kunstblume eine Sprachsteuerung eingebaut sein oder in einem Bilderrahmen ein kleiner Beamer. Durch eine nicht sichtbare im Tisch integrierte Datenbank können dem Pflegepersonal Bilder, Lieder und weitere Informationen für die individuelle Ansprache bereitgestellt werden.
Bereits im Aufnahmegespräch kann ein solcher Tisch zum Einsatz kommen: Häufig wiederkehrende Verhaltensmuster, wie etwa die Ansprache der Kinder, erkennt das System mittels Spracherkennung und beantwortet diese mit einer angepassten Reaktion. Dabei wird sichergestellt, dass das Betreuungspersonal über eine Sicherheitsabfrage die Möglichkeit zur Freischaltung bzw. Sperrung von sensiblen Informationen erhält.
Das Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM entwickelt in dem Projekt die gesamte Oberfläche. Dazu zählt die Hardware für den Radarsensor, die drahtlose Kommunikation und das kabellose Laden der einzelnen Komponenten. Durch die Integration dieser Elemente wird der Tisch zu einem interaktiven Interface, auf dem handelsübliche Gegenstände gestengesteuerte Kommunikationsmittel werden. Die einzelnen Komponenten sind die Kontaktpunkte zu einem in der Tischplatte integrierten Mini-Computer. Zusätzliche externe Bestandteile des Systems, wie z. B. Projektoren, Kameras sowie ein Spracherkennungssystem, können über die drahtlosen Schnittstellen des Tisches verbunden und bei Bedarf in Alltagsgegenständen, wie Vasen oder Bilderrahmen, eingebaut werden. All diese Gegenstände sollen mittels einer automatischen Abspieltechnik verbunden werden, sodass sie sich bei Benutzung direkt mit dem Rechner verbinden. Neben verschiedenen drahtlosen Kommunikationsschnittstellen und einer Ladevorrichtung wird auch eine Gestenerkennung in Zusammenarbeit mit dem Software-Partner Creonic integriert. Weitere Partner in dem Projekt sind die Contag AG für den zuverlässigen Aufbau der Hardware nach Vorgabe der AVT-Technologie des Fraunhofer IZM, die Böhm-Gruppe für den Einbau der nötigen Hardware in den Tisch sowie die Evangelische Altenhilfe Duisburg GmbH und die Charité Universitätsmedizin Berlin, um den Tisch im realen Anwendungsumfeld zu testen und einzusetzen.
Nach ungefähr der Halbzeit des Projektverlaufs sind sich die Projektpartner einig: „Das DAYSI-Interface wird das Feld der Patient*innenversorgung revolutionieren. Solche Systeme können die Pflege deutlich vereinfachen. Auch andere Anwendungsfelder sind denkbar, wie beispielweise die Spieleindustrie“, sagt der Projektleiter Christian Tschoban vom Fraunhofer IZM, aus dessen Team die Idee zu der Technologie in dem Tisch stammt.
Derzeit arbeitet das Konsortium an der Hardware für einen Prototypen des Interfaces. Der Demonstrator wird anschließend durch die Projektpartner in den Tisch eingebaut und die Machbarkeit, Nutzer*innenakzeptanz sowie die möglichen Kommunikationsfehler durch die Charité Universitätsmedizin Berlin und die Evangelische Altenhilfe Duisburg GmbH in verschiedenen Einsatzszenarien getestet. So werden beispielsweise per Projektor Familienangehörige oder Freunde simuliert, die über den Tisch mit den Betroffenen kommunizieren und interagieren können. Mittels Gestenerkennung soll die beruhigende Wirkung abgeschätzt und bei ausbleibendem Erfolg der Pflegedienst informiert werden. Damit das System auch bei der aktivierenden Animation unterstützen kann, wurden Spielmöglichkeiten integriert, die über die in den Tisch eingelassenen Spulen, den Beamer und die Gestenerkennung gesteuert werden können.
Pflegeexpert*innen untersuchen auch, inwiefern es demenziell erkrankten Menschen hilft, ihre bislang passive Umwelt plötzlich interaktiv zu erleben. Unterdessen testen die Fraunhofer-Forscher*innen die Funktionalitäten der integrierten Radartechnologie und des miniaturisierten Systems. Bislang gab es derartige Systeme nur in weitaus größerer Form. Das Fraunhofer IZM überzeugt hier mit seiner 28-jährigen Expertise in der Miniaturisierung und zuverlässigen Leistungsfähigkeit von kleinsten Systemen. Das Projekt DAYSI wird vom Bundesministerium für Bildung und Forschung für drei Jahre gefördert und läuft noch bis Ende 2021. Bis dahin arbeiten alle Projektpartner an dem interaktiven, alltagstauglichen Assistenzsystem für demenziell erkrankte Menschen, welches zum Projektende in Pflegeeinrichtungen und der häuslichen Umgebung eingesetzt werden soll.
Neben der Altenpflege streben die Fraunhofer-Forschenden zusammen mit der Technischen Universität Berlin auch eine Zusammenarbeit mit Garamantis an. Während Multi-Touch-Tische der Firma bisher noch kapazitiv wie ein Handy funktionieren, sollen die interaktiven Welten künftig mittels Gestensteuerung bedient werden. Erste Projektanträge der Entwicklung einer 3D-Gestensteuerung für Multi-Touch-Umgebungen mittels neuartiger Multi-Radar-Sensor-Architekturen für virtuelle Realitätsumgebungen sind eingereicht. Diese bieten eine Grundlage für weitere Anwendungsfelder wie autonomes Fahren oder als Erleichterung für ältere und beeinträchtigte Personen, wie z.B. Sehbehinderte.
Letzte Änderung: