(HTV) - Sự bùng nổ của công cụ trí tuệ nhân tạo ChatGPT từ cuối năm ngoái đã thúc đẩy cuộc chạy đua của nhiều công ty trong việc phát triển những mô hình A.I. tương tự.
Tuy nhiên, đi kèm với đó là cuộc chạy đua của các nhà lập pháp trong việc đưa ra những quy định nhằm quản lý và giảm thiểu rủi ro từ công nghệ này.
Sự phát triển nhanh chóng của Chat GPT và những công cụ A.I. tương tự đã làm dấy lên lo ngại về công nghệ này trong nhiều lĩnh vực, từ gian lận trong thi cử, cho đến phát tán thông tin sai lệch, hay mất việc làm. Tại Mỹ, Ủy ban Tư pháp Thượng viện trong tuần này vừa tổ chức phiên điều trần nhằm tìm kiếm những giải pháp quản lý A.I. hiệu quả. Buổi họp có sự tham gia của Giám đốc Điều hành OpenA.I., công ty phát triển ChatGPT.
Thượng nghị sĩ Richard Blumenthal mở đầu phiên điều trần bằng một đoạn ghi âm giả, nhằm cho thấy những nguy cơ tiềm ẩn của trí tuệ nhân tạo.
Các chuyên gia tham gia phiên điều trần có CEO OpenA.I. Sam Altman, Giám đốc về Quyền riêng tư Công ty IBM Christina Montgomery và giáo sư Gary Marcus.
CEO OpenA.I. thừa nhận, nỗi sợ lớn nhất của ông đối với A.I. là công nghệ này sẽ gây hại đáng kể đối với thế giới. Ông Altman cho rằng, sự can thiệp của Chính phủ trong khâu quản lý sẽ giảm thiểu đáng kể nguy cơ từ những công cụ A.I. ngày càng mạnh mẽ.
“Tôi đề xuất thành lập một cơ quan mới phụ trách việc cấp phép cho những nỗ lực phát triển A.I. ở mức độ nhất định. Cơ quan này có thể thu hồi giấy phép trong trường hợp cần đảm bảo việc tuân thủ các tiêu chuẩn an toàn.”
Trong khi đó, bà Montgomery kêu gọi Quốc hội Mỹ đưa ra những quy định nhằm giám sát A.I. trong từng trường hợp sử dụng, thay vì quản lý công nghệ này một cách chung chung.
Ông Marcus thì kêu gọi uỷ ban cân nhắc một cơ quan liên bang mới phụ trách kiểm tra những công cụ A.I. trước khi chúng được phát hành cho công chúng.
Liên quan đến vấn đề việc làm, cả ông Altman và bà Montgomery đều thừa nhận, A.I. sẽ cướp đi một số công việc, nhưng đồng thời tạo ra những công việc mới. Điều quan trọng là trang bị cho đội ngũ lao động những kỹ năng liên quan đến A.I..
Quan điểm này cũng được giáo sư toán học Geordie Williamson tại Australia chia sẻ. Ông cho rằng mình sẽ không bị A.I. cướp mất việc làm, do A.I. có thể giỏi đưa ra câu trả lời, nhưng lại thiếu khả năng giải thích cho câu trả lời đó.
Cần có một cuộc thảo luận trong cộng đồng, về việc A.I. sẽ được triển khai như thế nào và chúng ta sẽ sử dụng nó như thế nào. "Tiềm năng của A.I. cực kỳ lớn, nhưng chúng ta cần thật sự cẩn trọng." - Geordie Williamson, Giám đốc Viện Nghiên cứu toán học Sydney chia sẻ.
Phiên điều trần vừa qua là phiên đầu tiên trong chuỗi các buổi làm việc của Ủy ban Tư pháp Thượng viện Mỹ, nhằm tìm hiểu những lợi ích và nguy cơ của A.I. và thiết lập những quy định cho công nghệ này.
Trong lúc Mỹ còn đang nghiên cứu các cách thức quản lý A.I., thì hai ủy ban thuộc Nghị viện châu Âu (EP) vào tuần trước đã bỏ phiếu thông qua Dự luật Quản lý Trí tuệ Nhân tạo (A.I.). Đạo luật này đã được thảo luận tại Châu Âu trong hai năm qua và bao gồm những quy định mới xoay quanh việc sử dụng công nghệ nhận diện khuôn mặt, giám sát sinh trắc học và các ứng dụng A.I. khác.
Theo dự luật A.I. tại Liên minh Châu Âu (EU), các công cụ A.I. sẽ được phân loại theo mức độ nguy cơ có thể gây ra, gồm 4 mức độ: nguy cơ từ không đến thấp, nguy cơ giới hạn, nguy cơ cao và nguy cơ không chấp nhận được. Trong đó, những công cụ thuộc nhóm nguy cơ không chấp nhận được sẽ bị cấm, chẳng hạn như các hệ thống sử dụng những kỹ thuật lừa đảo để thay đổi hành vi con người.
Đối với những hệ thống A.I. có nguy cơ cao, các công ty sẽ phải hoàn thành các công tác đánh giá nguy cơ chi tiết, ghi nhận hoạt động và cung cấp dữ liệu cho giới chức. Cũng theo dự luật, những mô hình A.I. tạo sinh, tức có thể tạo ra nội dung mới từ nội dung sẵn có, như ChatGPT, sẽ phải tuân thủ những yêu cầu về tính minh bạch, chẳng hạn như nêu rõ rằng nội dung được A.I. tạo ra, cũng như không vi phạm bản quyền và không tạo ra những nội dung bất hợp pháp.
Boris Eldagsen, Nhiếp ảnh gia Đức còn cho biết: "Câu hỏi được đặt ra là làm thế nào chúng ta có thể duy trì một nền tảng dân chủ mà vẫn có thể phân biệt đâu là sự thật."
Bà Natali Helberg, Giáo sư luật và công nghệ số, Đại học Amsterdam chia sẻ: Đây là thời điểm chúng ta cần những quy định về A.I., vì chúng ta cần đảm bảo chất lượng của các mô hình A.I.. Chúng được các doanh nghiệp và cá nhân sử dụng rộng rãi. Nếu có bất kỳ vấn đề nào về chất lượng hay dữ liệu, thì những người dùng sau cùng sẽ bị ảnh hưởng.
Dự luật sẽ được Nghị viện châu Âu (EP) bỏ phiếu vào tháng 6 tới đây. Nước Anh, sau khi ra khỏi EU, cũng đang xây dựng công cụ áp dụng A.I. vào quản lý, đồng thời cơ chế quản lý và giám sát A.I.
Các Tiểu Vương quốc Ả rập thống nhất (UAE) là quốc gia đầu tiên trên thế giới, bổ nhiệm hẳn một Bộ trưởng phụ trách về Trí tuệ nhân tạo (A.I.). Tiểu vương Omar al-Olama hứa hẹn việc sử dụng công nghệ một cách "có trách nhiệm". Ngoài "lợi ích kinh tế", theo ông, A.I. có thể cải thiện "chất lượng cuộc sống" và quan trọng là vượt qua nỗi sợ hãi A.I.
Được bổ nhiệm vào năm 2017 khi mới 27 tuổi, Tiểu vương Omar Al-Olama chịu trách nhiệm đi tiên phong và đề ra chiến lược của UAE, trong một lĩnh vực có ứng dụng rất rộng: từ nhận dạng giọng nói và khuôn mặt cho đến ô tô tự hành.
UAE đặt mục tiêu trở thành một trong những nước dẫn đầu thế giới về A.I. vào năm 2031, với mục tiêu tạo ra tới 335 tỷ dirham (hơn 85 tỷ euro) trong giai đoạn này thông qua công nghệ, có thể mô phỏng trí thông minh của con người. Theo công ty tư vấn PwC Trung Đông, A.I. có thể đóng góp gần 14% tổng sản phẩm quốc nội (GDP) của đất nước vào năm 2030. Abu Dhabi, cũng là thủ đô có trường Đại học Trí tuệ Nhân tạo, Mohammed bin Zayed, được coi là "trường đầu tiên trên thế giới" về lĩnh vực này.
Tuy nhiên A.I. cũng vấp phải một số chỉ trích, trong đó việc làm vùng phát lại những thành kiến hiện có trong xã hội, làm tăng thêm phân biệt đối xử đối với một số nhóm dân số.
Omar al-Olama cho biết phần lớn công việc của ông là xây dựng niềm tin và tránh sai lầm khi triển khai công nghệ mới - “Nếu bạn đang đối phó với điều gì đó mà bạn không hiểu, thì ra sẽ sợ nó , đó là bản chất con người. Do đó, các cán bộ nòng cốt cần được đào tạo để họ hiểu A.I. là gì, các tình huống nhạy cảm về đạo đức, các triển khai tích cực và tiêu cực cũng như cách loại bỏ thành kiến”.
Theo các chuyên gia, cần có sự đồng bộ và hợp tác ở cấp độ quốc tế cho các quy định quản lý sản phẩm A.I., tương tự như những tiêu chuẩn kỹ thuật trong mạng Internet hay truyền thông di động.
Hơn nữa, A.I., đặc biệt là A.I. tạo sinh, là một ngành công nghiệp còn mới và đang phát triển nhanh chóng, nên những quy định quản lý cần được xem xét, cập nhật thường xuyên, có sự tham vấn từ chuyên gia.
>>> Xin mời quý vị đón xem Chương trình Thời sự HTV lúc 20 giờ và Chương trình Thế giới 24G lúc 20 giờ 30 phút mỗi ngày trên kênh HTV9