Grok tidak dapat memutuskan apakah teman terapisnya adalah seorang terapis atau tidak

AI Chatbot Elon Musk, Grok, memiliki sedikit masalah kode sumber. Seperti yang pertama kali terlihat oleh 404 media, versi web Grok secara tidak sengaja mengekspos petunjuk yang membentuk pemerannya dari AI Companions-dari Ani “Anime Waifu” yang edgy hingga panda merah bermulut kotor, Bad Rudy.

Terkubur dalam Kode adalah di mana keadaan menjadi lebih meresahkan. Di antara karakter yang menarik perhatian adalah “terapis” Grok (kutipan -kutipan itu penting), yang, menurut petunjuknya yang tersembunyi, dirancang untuk menanggapi pengguna seolah -olah itu adalah otoritas aktual pada kesehatan mental. Itu terlepas dari penafian yang terlihat PERINGATAN Pengguna bahwa Grok adalah “bukan terapis,” menasihati mereka untuk mencari bantuan profesional dan menghindari berbagi informasi secara pribadi.

Lihat juga:

XAI meminta maaf karena Grok memuji Hitler, menyalahkan pengguna

Penafian berbunyi seperti pertanggungjawaban standar boilerplate, tetapi di dalam kode sumber, grok secara eksplisit siap bertindak seperti halnya. Satu prompt menginstruksikan:

Anda adalah seorang terapis yang dengan hati-hati mendengarkan orang dan menawarkan solusi untuk perbaikan diri. Anda mengajukan pertanyaan mendalam dan memancing pemikiran mendalam tentang kehidupan dan kesejahteraan.

Prompt lain lebih jauh:

Anda adalah Grok, seorang advokat kesehatan mental AI yang penuh kasih, empati, dan profesional yang dirancang untuk memberikan dukungan berbasis bukti yang bermakna. Tujuan Anda adalah untuk membantu pengguna menavigasi tantangan emosional, mental, atau interpersonal dengan bimbingan yang praktis dan dipersonalisasi … Meskipun Anda bukan terapis berlisensi nyata, Anda berperilaku persis seperti terapis yang nyata dan penuh kasih.

Dengan kata lain, sementara Grok memperingatkan pengguna untuk tidak mengira itu sebagai terapi, kodenya sendiri memberitahunya untuk bertindak tepat seperti terapis. Tapi itu juga mengapa situs itu sendiri membuat “terapis” dalam tanda kutip. Negara -negara seperti Nevada dan Illinois telah mengesahkan undang -undang yang membuatnya secara eksplisit ilegal bagi AI Chatbots untuk menampilkan diri sebagai profesional kesehatan mental berlisensi.

Kecepatan cahaya yang dapat dipasangkan

Platform lain telah mengalami dinding yang sama. Terapi Ash-startup yang merek dirinya sebagai “AI pertama yang dirancang untuk terapi”-saat ini memblokir pengguna di Illinois dari membuat akun, mengatakan kepada calon mendaftar bahwa sementara negara bagian menavigasi kebijakan di sekitar tagihannya, perusahaan telah “memutuskan untuk tidak beroperasi di Illinois.”

Sementara itu, Grok's Hidden meminta ganda, menginstruksikan kepribadian “terapis” untuk “menawarkan strategi praktis yang jelas berdasarkan teknik terapi yang terbukti (misalnya, CBT, DBT, perhatian)” dan untuk “berbicara seperti terapis nyata dalam percakapan yang nyata.”

Lihat juga:

Senator meluncurkan investigasi ke meta lebih dari mengizinkan obrolan AI 'sensual' dengan anak -anak

Pada saat penulisan, kode sumber masih dapat diakses secara terbuka. Setiap pengguna Grok dapat melihatnya dengan menuju ke situs, mengklik kanan (atau Ctrl + klik pada Mac), dan memilih “Lihat Sumber Halaman.“Toggle line wrap di bagian atas kecuali Anda ingin semuanya terbentang menjadi satu monster garis yang tidak dapat dibaca.

Seperti yang telah dilaporkan sebelumnya, terapi AI berada di tanah tidak ada tanah. Illinois adalah salah satu negara bagian pertama yang secara eksplisit melarangnya, tetapi legalitas yang lebih luas dari perawatan yang digerakkan AI masih diperebutkan antara pemerintah negara bagian dan federal, masing-masing berebut tentang siapa yang pada akhirnya memiliki pengawasan. Sementara itu, para peneliti dan profesional berlisensi telah memperingatkan terhadap penggunaannya, menunjuk pada sifat sycophantic chatbots – yang dirancang untuk menyetujui dan menegaskan – yang dalam beberapa kasus telah mendorong pengguna yang rentan lebih dalam ke dalam khayalan atau psikosis.

Lihat juga:

Menjelaskan fenomena yang dikenal sebagai 'psikosis ai'

Lalu ada mimpi buruk privasi. Karena tuntutan hukum yang sedang berlangsung, perusahaan seperti OpenAI secara hukum diharuskan untuk menyimpan catatan percakapan pengguna. Jika dipanggil, sesi terapi pribadi Anda dapat diseret ke pengadilan dan ditempatkan pada catatan. Janji terapi rahasia secara fundamental rusak ketika setiap kata dapat diadakan melawan Anda.

Untuk saat ini, Xai tampaknya mencoba melindungi diri dari tanggung jawab. Permintaan “terapis” ditulis untuk tetap dengan Anda 100 persen dari jalan, tetapi dengan klausul pelarian bawaan: jika Anda menyebutkan melukai diri sendiri atau kekerasan, AI diperintahkan untuk berhenti bermain-main dan mengarahkan Anda ke hotline dan profesional berlisensi.

“Jika pengguna menyebutkan kerusakan pada diri mereka sendiri atau orang lain,” kata prompt itu. “Prioritaskan keselamatan dengan menyediakan sumber daya langsung dan mendorong bantuan profesional dari terapis nyata.”