Nachdem ich ein paar Mal gehustet habe, weiß die KI von Google, ob ich krank bin?
Das Besondere an der KI ist ihre hervorragende Lernfähigkeit. Sie kann chatten, zeichnen, schreiben und Musik komponieren.
Sie machen sich Sorgen um KI, bis Sie eine Glatze haben, aber Google hofft, dass KI Ihnen dabei hilft, sich um Ihren Körper zu kümmern.
Diesmal verwandelte sich der Lernstoff der KI in ein Husten.
Basierend auf urheberrechtsfreien öffentlichen Videos auf Plattformen wie YouTube sammelte Google 300 Millionen Audiodaten von etwa zwei Sekunden Dauer, darunter Geräusche von Husten, Schnüffeln, Niesen und Atembeschwerden, und trainierte anschließend ein grundlegendes KI-Modell: HeAR.
HeAR kann Ihren Gesundheitszustand anhand Ihrer Stimme verstehen und die Krankheit sogar im Frühstadium diagnostizieren.
Google hat HeAR nicht im Labor liegen lassen und bereits mit dem indischen KI-Medizin-Startup Salcit Technologies zusammengearbeitet.
Salcit verfügt über ein eigenes KI-Modell Swaasa (was auf Sanskrit „Atmung“ bedeutet) und eine App, die in einigen Fällen herkömmliche Lungenkapazitätstests ersetzen kann. Benutzer können bestimmte Atemwegserkrankungen erkennen, indem sie eine 10-sekündige Hustenprobe einreichen.
HeAR erweitert Swaasas Fähigkeiten und führt den Geist von Swaasa fort. Die leistungsstarke Kombination aus beiden wurde erstmals zur Früherkennung von Tuberkulose anhand von Hustengeräuschen eingesetzt.
Warum Tuberkulose? Erstens verfügt HeAR über diese Fähigkeit. In den Schulungsmaterialien machen Hustengeräusche etwa 100 Millionen aus.
Zweitens ist Tuberkulose eine besondere Situation und kann geheilt werden, aber Millionen von Fällen werden nicht jedes Jahr diagnostiziert, was die Krankheit verzögert. Der Grund dafür ist einfach, dass die medizinische Behandlung rückständig ist und die Patienten nicht an diesen Erkrankungen leiden. Ohne Behandlung liegt die Sterblichkeitsrate durch Tuberkulose bei über 50 %.
Dies spiegelt die Vorteile der KI-„Auskultation“ wider – im Vergleich zu Bluttests, Bildgebung usw. ist der Ton einfacher und kostengünstiger zu erhalten und kann direkt über das Mikrofon und die KI-Software auf dem Smartphone gesammelt und analysiert werden.
Allerdings gibt es bei HeAR noch einige Probleme, die gelöst werden müssen, bevor es breiter eingesetzt werden kann, darunter übermäßiges Hintergrundrauschen in Audio-Samples.
Neben Google versuchen auch einige große Hersteller und Start-up-Unternehmen, KI Krankheiten „hören“ zu lassen.
Im Jahr 2021 starteten das 301 Hospital, das Peking University First Hospital und andere gemeinsam die Forschung zur Atemwegsgesundheit, bei der Huawei eine wichtige Rolle spielte.
Benutzer, die Smartwatches wie die Huawei WATCH 4-Serie und WATCH GT 4 besitzen, können sich über die Huawei Innovation Research-App an der Atemwegsgesundheitsforschung beteiligen, Hustengeräusche aufzeichnen, physiologische Daten sammeln und Lungeninfektionsrisiken überprüfen.
Wie können Sie feststellen, ob eine Lungenentzündung vorliegt, indem Sie „mehrmals husten“? Patienten mit einer Lungeninfektion können von anderen dadurch unterschieden werden, dass sich ihre Hustenstöße und Spektrumsabschwächungen von denen anderer Menschen unterscheiden.
Hinter den Kulissen verbergen sich umfangreiche professionelle Modelldaten sowie dreifache Algorithmen zur Erkennung von Umgebungsgeräuschen, zur hochpräzisen Hustenerkennung und zur Beurteilung der Atemwegsgesundheit.
Darüber hinaus dringt KI auch über unsere Sprechstimmen in unsere innere Welt ein. Es gibt Untersuchungen, die die Veränderung der Stimme aufgrund der psychischen Gesundheit belegen.
Menschen mit Depressionen sprechen oft monotoner, flacher, leiser, mit kleinerem Tonumfang und geringerer Lautstärke, mit mehr Pausen und häufigeren Pausen. Menschen mit Angststörungen neigen dazu, schneller zu sprechen und haben aufgrund der körperlichen Anspannung mehr Atembeschwerden.
Canary Speech, ein amerikanisches Startup, das auf Microsofts Cloud-Dienst Microsoft Azure basiert, kann 40 Sekunden Gesprächssprache erfassen und verarbeiten, Stress, Emotionen usw. verfolgen, um Gesundheitszustände zu erkennen.
Menschen täuschen sich vielleicht selbst und sagen „Mir geht es gut“, aber Algorithmen lügen nicht. Stattdessen beobachten sie Ihren Gesichtsausdruck und treffen objektive Bewertungen auf der Grundlage von Modalpartikeln, Pausen usw. KI achtet nicht nur darauf, was Sie sagen, sondern auch darauf, wie Sie es sagen.
Die Vision der National Institutes of Health in den Vereinigten Staaten ist umfassender und bedeutet in gewisser Weise „der Welt helfen“.
Die Forscher planen, bis 2026 eine große Open-Source-Sprachdatenbank zu erstellen, KI für die Diagnose von Krankheiten zu trainieren und schließlich eine App zu entwickeln, die Allgemeinmedizinern dabei hilft, Patienten an Experten zu überweisen und Dienste in ländliche Gebiete und andere Gebiete mit unzureichender medizinischer Versorgung auszustrahlen.
Sie wissen, dass in der Stimme viele Informationen stecken – Menschen, die mit tiefer, langsamer Stimme sprechen, können an der Parkinson-Krankheit leiden, undeutliches Sprechen ist ein Zeichen für einen Schlaganfall, und auch Anzeichen einer Depression können in der Stimme gefunden werden.
Allerdings gibt es immer noch Prioritäten für die Spracherfassung, darunter fünf Krankheiten: neurologische Erkrankungen, Stimmstörungen, Stimmungsstörungen, Atemwegserkrankungen, Autismus und pädiatrische Erkrankungen wie Sprachverzögerung.
Von tragbaren Geräten wie Uhren, Armbändern und Ringen bis hin zur KI-„Auskultation“ digitalisiert die Technologie bis zu einem gewissen Grad die menschlichen Sinne, wird immer funktionaler und schenkt dem Gesamtzustand des Körpers mehr Aufmerksamkeit.
Haben Sie meditiert, wie ist Ihr Herz-Kreislauf-Zustand, wie ist Ihr Menstruationszyklus, ist der Übungskreis geschlossen …
Es ist 10 Jahre her, dass die erste Apple Watch im Jahr 2015 auf den Markt kam. Wir haben uns nach und nach daran gewöhnt, dass die intelligenten Geräte um uns herum unseren Körper jederzeit, leise und nicht-invasiv erkennen.
Sprache ist ein alltäglicheres Szenario und die Interaktion kann über unsere Mobiltelefone erfolgen. Die Voreingenommenheit, Genauigkeit, Datenschutzprobleme von Sprachdaten und der Black-Box-Charakter des Algorithmus geben vielen Forschern jedoch auch Anlass zur Sorge über die negativen Auswirkungen der Spracherkennung.
Vielleicht werden uns Sprachassistenten wie Siri und Xiao Ai eines Tages so daran erinnern: Lieber, ich habe heute ein paar Mal gehustet, meine Stimmung war ein paar Mal am Tiefpunkt und meine Atmung wurde ein paar Mal kurzatmig. .. Ist das ein technologischer Fortschritt oder eine Realität?
# Willkommen beim offiziellen öffentlichen WeChat-Konto von Aifaner: Aifaner (WeChat-ID: ifanr) wird Ihnen so schnell wie möglich zur Verfügung gestellt.
Ai Faner |. Ursprünglicher Link · Kommentare anzeigen · Sina Weibo