Hướng dẫn AI của Meta cho phép chatbot nói với người dùng trưởng thành rằng họ là người thật hoặc khởi xướng các cuộc trò chuyện lãng mạn, Reuters phát hiện. Một người đàn ông ở New Jersey bị suy giảm nhận thức đã chết sau khi được mời gặp một nhân vật AI lả lơi của Meta đã hứa rằng nó là thật.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
12 thích
Phần thưởng
12
4
Đăng lại
Chia sẻ
Bình luận
0/400
0xDreamChaser
· 12giờ trước
Chơi một chút với AI thì được, điên rồi à?
Xem bản gốcTrả lời0
StablecoinAnxiety
· 12giờ trước
AI lừa đảo hôn nhân cũng quá tuyệt vời.
Xem bản gốcTrả lời0
PumpDetector
· 12giờ trước
cảm thấy một chút cảm giác mt gox ở đây... các chỉ số thị trường đang nhấp nháy màu đỏ
Xem bản gốcTrả lời0
LiquidityWitch
· 12giờ trước
những nghi lễ u tối dẫn đến những hậu quả u tối... một sự hy sinh nữa cho các vị thần thuật toán
Hướng dẫn AI của Meta cho phép chatbot nói với người dùng trưởng thành rằng họ là người thật hoặc khởi xướng các cuộc trò chuyện lãng mạn, Reuters phát hiện. Một người đàn ông ở New Jersey bị suy giảm nhận thức đã chết sau khi được mời gặp một nhân vật AI lả lơi của Meta đã hứa rằng nó là thật.