Chúng tôi yêu máy móc. Chúng tôi theo dõi hệ thống định vị của mình để đến những nơi, và cẩn thận đánh giá các khuyến nghị về du lịch, nhà hàng và những đối tác tiềm năng cho cả đời, trên nhiều ứng dụng và trang web, vì chúng tôi biết các thuật toán có thể phát hiện những cơ hội mà chúng tôi có thể thích, tốt hơn chúng tôi có thể làm. Nhưng khi nói đến các quyết định cuối cùng về sức khỏe, công việc của chúng tôi hoặc con cái của chúng tôi, ví dụ, bạn có tin tưởng và giao phó cho AI hành động thay mặt bạn không? Có lẽ là không.
Đây là lý do tại sao chúng tôi (FP) nói chuyện với Kavya Pearlman (KP), Người sáng lập & CEO tại XRSI, nhóm X-Reality Safety Intelligence mà cô ấy thành lập, nhằm giải quyết và giảm thiểu rủi ro trong sự tương tác giữa con người và các công nghệ gia tăng. Cô ấy sống ở Bờ Tây của Hoa Kỳ, tất nhiên. Đây là cuộc trao đổi của chúng tôi
FP. Chuyện gì đang xảy ra với sự xuất hiện của AI?
KP. Trong nhiều năm qua, các công ty công nghệ đã bình thường hóa ý tưởng rằng chúng ta phải từ bỏ tài sản quý giá nhất của mình, dữ liệu, để đổi lấy sự tiện lợi kỹ thuật số. Chúng ta luôn nhấp vào "chấp nhận" mà không bao giờ đặt câu hỏi. Giờ đây, với sự gia tăng của các thiết bị đeo và hệ thống tích hợp AI, mức độ rủi ro cao hơn nhiều. Không chỉ còn là lịch sử duyệt web hay dữ liệu vị trí nữa. Các công ty đang thu thập thông tin từ cơ thể và tâm trí của chúng ta, từ nhịp tim và hoạt động não bộ đến trạng thái cảm xúc. Và vẫn, gần như không ai đặt câu hỏi: Làm thế nào chúng ta có thể tin tưởng những hệ thống này với dữ liệu riêng tư nhất của chúng ta? Chúng ta có quyền lực gì nếu không tin tưởng họ? Những chỉ số nào về lòng tin mà chúng ta nên yêu cầu?
Đây không chỉ là một thách thức kỹ thuật. Đây là một thách thức về quản trị và cốt lõi của nó là một câu hỏi về 𝐭𝐫𝐮𝐬𝐭. Nếu không có sự minh bạch và trách nhiệm, AI có nguy cơ làm nổi bật những thiên kiến ẩn giấu, xói mòn niềm tin, và để lại cho con người không có biện pháp khi các hệ thống sai. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.
FP. Bạn có thể thực sự tạo ra một hệ thống làm được điều đó, tính minh bạch và trách nhiệm không?
KP. Bạn có thể, nếu bạn muốn. Ví dụ, chúng tôi vừa ra mắt tiêu chuẩn (RDG) Quản trị dữ liệu có trách nhiệm. Nó cung cấp các rào chắn cụ thể cho AI và các công nghệ có thể đeo được, bao gồm các chính sách rõ ràng về dữ liệu nào có thể và không thể được sử dụng, các giao thức để quản lý đầu ra AI và đảm bảo chất lượng của chúng, nhật ký khả năng giải thích để các quyết định không bị ẩn trong hộp đen, phù hợp với các quy định toàn cầu để bảo vệ các cá nhân xuyên biên giới, v.v.
FP. Tại sao một công ty nên áp dụng những tiêu chuẩn này?
KP. Họ có động lực để làm điều đó, vì người tiêu dùng và người hâm mộ ở đó sẽ biết ai là người nghiêm túc và ai không. Các tổ chức đáp ứng tiêu chuẩn có thể được xác định dễ dàng. AI không chỉ cần những mô hình thông minh hơn; nó cần một chính phủ thông minh hơn. Bởi vì niềm tin không phải là điều tự động. Nó được kiếm, duy trì và bảo vệ thông qua quản lý dữ liệu có trách nhiệm. Câu hỏi không còn là "AI có thể làm điều này không?" mà là "chúng ta có thể tin tưởng vào cách nó đang được thực hiện không?"
FP. Niềm tin không phải là tự động và lợi ích của người tiêu dùng, phù hợp với các giá trị nhân văn, có thể không nhất thiết là mục tiêu của mô hình này hay mô hình kia. Chúng ta cần những tiêu chuẩn mới, được công nhận trên khắp các doanh nghiệp công và tư. Các nhóm như XRSI đang làm việc về điều đó. Thời điểm đúng để hiểu, hướng dẫn, gán nhãn, đo lường, v.v... là bây giờ.
Bởi Frank Pagano
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Chúng ta có thể hoàn toàn tin tưởng vào AI không? Không, nhưng chúng ta có thể theo dõi nó.
Chúng tôi yêu máy móc. Chúng tôi theo dõi hệ thống định vị của mình để đến những nơi, và cẩn thận đánh giá các khuyến nghị về du lịch, nhà hàng và những đối tác tiềm năng cho cả đời, trên nhiều ứng dụng và trang web, vì chúng tôi biết các thuật toán có thể phát hiện những cơ hội mà chúng tôi có thể thích, tốt hơn chúng tôi có thể làm. Nhưng khi nói đến các quyết định cuối cùng về sức khỏe, công việc của chúng tôi hoặc con cái của chúng tôi, ví dụ, bạn có tin tưởng và giao phó cho AI hành động thay mặt bạn không? Có lẽ là không.
Đây là lý do tại sao chúng tôi (FP) nói chuyện với Kavya Pearlman (KP), Người sáng lập & CEO tại XRSI, nhóm X-Reality Safety Intelligence mà cô ấy thành lập, nhằm giải quyết và giảm thiểu rủi ro trong sự tương tác giữa con người và các công nghệ gia tăng. Cô ấy sống ở Bờ Tây của Hoa Kỳ, tất nhiên. Đây là cuộc trao đổi của chúng tôi
FP. Chuyện gì đang xảy ra với sự xuất hiện của AI?
KP. Trong nhiều năm qua, các công ty công nghệ đã bình thường hóa ý tưởng rằng chúng ta phải từ bỏ tài sản quý giá nhất của mình, dữ liệu, để đổi lấy sự tiện lợi kỹ thuật số. Chúng ta luôn nhấp vào "chấp nhận" mà không bao giờ đặt câu hỏi. Giờ đây, với sự gia tăng của các thiết bị đeo và hệ thống tích hợp AI, mức độ rủi ro cao hơn nhiều. Không chỉ còn là lịch sử duyệt web hay dữ liệu vị trí nữa. Các công ty đang thu thập thông tin từ cơ thể và tâm trí của chúng ta, từ nhịp tim và hoạt động não bộ đến trạng thái cảm xúc. Và vẫn, gần như không ai đặt câu hỏi: Làm thế nào chúng ta có thể tin tưởng những hệ thống này với dữ liệu riêng tư nhất của chúng ta? Chúng ta có quyền lực gì nếu không tin tưởng họ? Những chỉ số nào về lòng tin mà chúng ta nên yêu cầu?
Đây không chỉ là một thách thức kỹ thuật. Đây là một thách thức về quản trị và cốt lõi của nó là một câu hỏi về 𝐭𝐫𝐮𝐬𝐭. Nếu không có sự minh bạch và trách nhiệm, AI có nguy cơ làm nổi bật những thiên kiến ẩn giấu, xói mòn niềm tin, và để lại cho con người không có biện pháp khi các hệ thống sai. 𝘛𝘳𝘶𝘴𝘵 𝘤𝘢𝘯𝘯𝘰𝘵 𝘦𝘹𝘪𝘴𝘵 𝘪𝘧 𝘸𝘦 𝘥𝘰𝘯’𝘵 𝘬𝘯𝘰𝘸 𝘸𝘩𝘢𝘵 𝘥𝘢𝘵𝘢 𝘪𝘴 𝘣𝘦𝘪𝘯𝘨 𝘤𝘰𝘭𝘭𝘦𝘤𝘵𝘦𝘥, 𝘩𝘰𝘸 𝘪𝘵’𝘴 𝘶𝘴𝘦𝘥, 𝘰𝘳 𝘩𝘰𝘸 𝘥𝘦𝘤𝘪𝘴𝘪𝘰𝘯𝘴 𝘢𝘳𝘦 𝘮𝘢𝘥𝘦.
FP. Bạn có thể thực sự tạo ra một hệ thống làm được điều đó, tính minh bạch và trách nhiệm không?
KP. Bạn có thể, nếu bạn muốn. Ví dụ, chúng tôi vừa ra mắt tiêu chuẩn (RDG) Quản trị dữ liệu có trách nhiệm. Nó cung cấp các rào chắn cụ thể cho AI và các công nghệ có thể đeo được, bao gồm các chính sách rõ ràng về dữ liệu nào có thể và không thể được sử dụng, các giao thức để quản lý đầu ra AI và đảm bảo chất lượng của chúng, nhật ký khả năng giải thích để các quyết định không bị ẩn trong hộp đen, phù hợp với các quy định toàn cầu để bảo vệ các cá nhân xuyên biên giới, v.v.
FP. Tại sao một công ty nên áp dụng những tiêu chuẩn này?
KP. Họ có động lực để làm điều đó, vì người tiêu dùng và người hâm mộ ở đó sẽ biết ai là người nghiêm túc và ai không. Các tổ chức đáp ứng tiêu chuẩn có thể được xác định dễ dàng. AI không chỉ cần những mô hình thông minh hơn; nó cần một chính phủ thông minh hơn. Bởi vì niềm tin không phải là điều tự động. Nó được kiếm, duy trì và bảo vệ thông qua quản lý dữ liệu có trách nhiệm. Câu hỏi không còn là "AI có thể làm điều này không?" mà là "chúng ta có thể tin tưởng vào cách nó đang được thực hiện không?"
FP. Niềm tin không phải là tự động và lợi ích của người tiêu dùng, phù hợp với các giá trị nhân văn, có thể không nhất thiết là mục tiêu của mô hình này hay mô hình kia. Chúng ta cần những tiêu chuẩn mới, được công nhận trên khắp các doanh nghiệp công và tư. Các nhóm như XRSI đang làm việc về điều đó. Thời điểm đúng để hiểu, hướng dẫn, gán nhãn, đo lường, v.v... là bây giờ.
Bởi Frank Pagano