会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 【ti le keo nha cái】Đi đầu nhưng về đích sau, Google chọn cách tiếp cận an toàn với AI!

【ti le keo nha cái】Đi đầu nhưng về đích sau, Google chọn cách tiếp cận an toàn với AI

时间:2025-01-11 06:47:57 来源:Nhà cái uy tín 作者:Thể thao 阅读:496次

Đi đầu nhưng về đích sau,ĐiđầunhưngvềđíchsauGooglechọncáchtiếpcậnantoànvớti le keo nha cái Google chọn cách tiếp cận an toàn với AI

Anh Vũ

Lãnh đạo Google cho rằng AI ở thời điểm hiện tại vẫn còn nhiều thiếu sót và chưa đủ hoàn thiện để tung ra cho đại chúng.

Sau thành công của những chat bot sử dụng trí tuệ nhân tạonhư ChatGPT hay Stable Diffusion, giới công nghệ bắt đầu đặt dấu hỏi về AI của Google cũng như thời điểm mà Googlegiới thiệu sản phẩm này tới người dùng phổ thông. Chat bot LamDA AI của Google đã được phát triển thành công từ rất lâu nhưng tới nay vẫn chỉ được áp dụng nội bộ.

Trong buổi họp mặt nhân sự, nhiều lo ngại về lợi thế cạnh tranh trong lĩnh vực AI được nhân viên gửi tới lãnh đạo, phát triển an toàn là hướng đi tốt nhưng quá an toàn để rồi mất thị phần sẽ khiến Google hụt hơi trên thị trường trí tuệ nhân tạo.

Trả lời thắc mắc trên, CEO Google ông Sundar Pichai cùng giám đốc mảng AI ông Jeff Dean cho rằng khác với những công ty nhỏ khi không có gì để mất, việc đưa một AI chưa hoàn thiện tới người dùng không những phá hỏng danh tiếng mảng AI mà còn làm mất đi niềm tin của người dùng với những sản phẩm khác do Google phát triển.

Hai vị lãnh đạo lấy ví dụ minh chứng, nếu đưa LaMDA ra thị trường và chat bot này có những phát ngôn thù hằn, tiêu cực hay sai sự thật... niềm tin của người dùng với những kết quả mà Google tìm kiếm đưa liệu có còn như trước?

"Chúng ta đều muốn biến những dự án nghiên cứu thành các sản phẩm thật, thế nhưng điều quan trọng nhất ở thời điểm hiện tại là chúng ta phải làm cho AI hoạt động đúng trước đã", Jeff Dean phát biểu.

Jeff Dean, giám đốc mảng AI tại Google.

Cho biết thêm, vị lãnh đạo này nói xã hội hiện tại có quá nhiều vấn đề có thể dẫn tới chia rẽ, một AI không hoàn chỉnh khi không rõ câu trả lời có khả năng lớn bịa đặt thông tin, đưa ra những phát ngôn không chính xác. CEO Sundar Pichai ở chiều ngược lại xoa dịu nhân viên và cho rằng Googlecó rất nhiều dự định với AI trong trương lai.

Ví dụ về AI hoạt động sai không hiếm gặp, đơn cử như chat bot Tay được Microsoft giới thiệu vào năm 2016. Tích hợp vào Twitter trò chuyện cùng người dùng để xây dựng hệ thống ngôn ngữ, chưa đầy 24 giờ sau AI này đã đưa ra rất nhiều phát ngôn phân biệt đối xử, chia rẽ. Chat bot khác được tích hợp trên mạng xã hội 4Chan cũng tự tạo ra 15.000 bài viết có tính phân biệt chủng tộc mỗi ngày.

Ngay cả ChatGPT, AI được kì vọng nhất mới được giới thiệu gần đây, không ít trường hợp chat bot này đưa ra những thông tin sai sự thật. 

LaMDA không phải là AI duy nhất đang được Google phát triển, những AI có khả năng tạo nên hình ảnh hay video từ dữ liệu người dùng cũng đã có những bước phát triển nổi bật theo công bố của Google. Tuy nhiên, với sự đa dạng trong cách sử dụng cũng như những mối nguy hiểm có thể xảy đến khi người dùng cố tình dùng sai AI, cách thức tiếp cận an toàn của Google rất hợp lý cho tới khi AI hoàn toàn được kiểm soát.

推荐内容
  • Cảnh sát hóa trang xử lý xe quá tải chạy trên đê ở Hà Nội
  • Lừa bạn gái mới quen qua zalo đi chơi, chiếm đoạt xe máy
  • Nghi vợ say tình mới, chồng chốt cửa giết vợ
  • Nam sinh giết người tình đồng tính vì bị quan hệ thô bạo
  • PM to visit Laos, co
  • Ford kiện công ty độ xe vì 'làm cũ' mẫu xe mới Bronco