Da Smartphones in weiten Teilen des Landes fast allgegenwärtig sind, leben viele von uns unseren Alltag mit virtuellen Assistenten wie Siri in unseren Taschen.

Während diese Assistenten bei einfachen Aufgaben wie der Wetterprognose hilfreich sein können, ist eine körperlose Roboterstimme in Krisenzeiten vielleicht nicht so beruhigend.

Dies könnte sich jedoch ändern, wenn die Beamten von Apple nach Ingenieuren mit psychologischen Hintergründen suchen, um Siri in Notfällen besser zu erreichen und hilfreicher zu machen.

In einer Stellenausschreibung forderte Apple unter anderem Ingenieure auf, an Siri mit einem "Peer-Counselling- oder psychologischen Hintergrund" zu arbeiten.

"Die Leute reden mit Siri über alle möglichen Dinge, auch wenn sie einen stressigen Tag haben oder etwas ernsthaftes im Sinn haben", schrieben Apple-Beamte im Beitrag. "Sie wenden sich in Notfällen an Siri oder wenn sie Anleitung für ein gesünderes Leben wünschen. Verbessert Siri in diesen Bereichen Ihr Interesse? Kommen Sie als Teil des Siri Domains Teams und machen Sie einen Unterschied. "

Bruce Arnow, PhD, Psychologe und Psychotherapeut bei Stanford Health Care, sagte, dass immer mehr Psychiatrie-Fachkräfte eine Möglichkeit gesehen haben, über Apps am Telefon Menschen zu erreichen, die Hilfe benötigen.

Als Ergebnis dieser Zusammenarbeit sagte er, es sei nicht überraschend zu sehen, dass Apple Psychologen anwirke, um Siri besser zu erschließen.

"Vor ein paar Jahren wäre es seltsam gewesen und jetzt nicht", sagte Arnow.

Er wies darauf hin, dass sich die Menschen bereits täglich an ihre Telefone wenden, um Hilfe zu bekommen, und dass sich einige wahrscheinlich in Krisenzeiten bereits an ihre virtuellen Assistenten gewandt haben.

"Ich habe einen Artikel darüber gesehen, wie Siri auf Leute reagiert hat, die Dinge gesagt haben wie:" Ich wurde vergewaltigt. Was soll ich machen? "" Sagte Arnow. "Sie haben keine sehr klugen Antworten bekommen, daher ist es für mich nicht überraschend, dass sie Psychologen einstellen würden. "

Arnow stellte klar, dass er Siri nicht als eine App für geistige Gesundheit ansieht, sondern dass es entwickelt werden könnte, um Menschen mitten in einer psychischen oder physischen Gesundheitskrise in die richtige Richtung zu lenken.

"Ich denke an Siri als eine Assistentin, die - wenn Sie in einer Krise sind - auf eine freundliche Art zu Ihnen sprechen und Sie zu einer Selbstmord-Hotline leiten" oder eine andere Helpline, sagte er.

Im Allgemeinen werden Anwendungen für psychische Gesundheit immer beliebter, da neue Apps verfügbar sind, die Menschen mit Suchtproblemen, Essstörungen oder anderen psychischen Problemen helfen sollen.

"Wir haben ein größeres Zugangsproblem in Bezug auf psychische Gesundheitsdienste", sagte Arnow.

Er wies darauf hin, dass diese Art von Diensten die volle psychische Behandlung für diejenigen, die dringend Hilfe benötigen, nicht ersetzen kann.

"Die meisten Patienten brauchen ein höheres Maß an Pflege", sagte Arnow.

Aber er sagte, diese Apps könnten ein erster Schritt für diejenigen sein, die Hilfe brauchen.

Siri zu einem besseren Freund oder Assistenten machen?

Ramani Durvasula, PhD, Professor für Psychologie an der California State University, Los Angeles, sagte, dass die Leute, wenn sie mehr an ihren Handys hängen, interessant sein werden, wenn sie sehen, wie sich Siri und andere KI-Assistenten entwickeln.

"In dem Maße, in dem sie Siri attraktiver machen wollen, ist es der logischste Weg, anzufangen", sagte Durvasula gegenüber Healthline. "Was wird mit Siri kompliziert, ist Siri deine Assistentin oder ist Siri deine Freundin? "

Sie sagte, dass Ingenieure in der Lage sein könnten, Siri und ähnliche Geräte besser dazu zu bringen, menschliches Verhalten nachzuahmen, und dass Ingenieure mit einem psychologischen Hintergrund mehr Einblick und Informationen darüber haben werden, wie sie dieses Verhalten effektiv nachahmen können.

Allerdings wies Durvasula darauf hin, dass manche Leute Siri rufen oder sich kämpferisch zeigen wollen, und Ingenieure müssen herausfinden, ob sie wollen, dass das Gerät diese Kampflust widerspiegelt oder passiv bleibt.

"Gibt es Möglichkeiten, dass das Telefon im Laufe der Zeit lernen kann, welche Sprache die Person verwendet, ob das Obszönität oder Lautstärke oder Geschwindigkeit der Sprache ist und diese Daten verwendet werden? "Durvasula sagte:

Sie sagte, dass es ein Potenzial gibt, dass die Interaktionen von Menschen mit Siri oder anderen Geräten eines Tages beeinflussen könnten, wie sie mit echten Menschen interagieren.

"Wenn du an einem Telefon schreist und damit durchkommst, wirst du wahrscheinlich eher mit anderen Leuten reden", sagte sie. "Wenn du einen normal atmenden Menschen anschreitest, werden sie zurückschreien oder weggehen. "