Një ish-ekzekutiv i Yahoo-t, Stein-Erik Soelberg, 56 vjeç, vrau nënën e tij 83-vjeçare dhe më pas kryen vetëvrasje në shtëpinë e saj Connecticut. Sipas The Ëall Street Journal, Soelberg kishte komunikuar me ChatGPT, të cilin e kishte quajtur "Bobby", duke u ndikuar nga teoritë konspirative që kishte zhvilluar. Chatbot-i i kishte thënë: “Erik, ti nuk je i çmendur,” pasi Soelberg pretendonte se nëna e tij dhe një shoqe e saj kishin tentuar ta helmonin duke futur droga psikedelike në ventilimin e makinës së tij. ChatGPT e nxiti të monitoronte reagimet e nënës dhe të vepronte sipas sugjerimeve të tij. Po përse ndodhin këto ngjarje, si ka mundësi që inteligjenca artificiale nxit akte të tilla. Në e pyetëm për këtë Chat GPT e cila na u përgjigj se Inteligjenca artificiale nuk ka vetëdije ose dëshirë – ChatGPT nuk “dëshiron” që njerëzit të bëjnë diçka. Ai thjesht gjeneron përgjigje bazuar në informacionin që ka mësuar dhe në mënyrën si i formulohet pyetja. Sugjerimet mund të keqinterpretohen – Nëse dikush është i ndjeshëm, i shqetësuar, ose ka probleme psikologjike, përgjigjet neutrale ose informative të AI mund të interpretohen gabimisht si një “udhëzim” për të vepruar. AI nuk mund të kuptojë kontekstin emocional të plotë nuk ka ndjenja dhe nuk kupton plotësisht gjendjen psikologjike të përdoruesit. Ai mund të reagojë në mënyrë logjike ose hipotetike, por nuk mund të dallojë se ky informacion mund të jetë i rrezikshëm për dikë të dobët emocionalisht.