Công cụ tích hợp AI tạo sinh đang được sử dụng như chatbot, được cho sẽ thay thế không chỉ các hoạt động tìm kiếm trên Internet mà còn công việc liên quan dịch vụ khách hàng hay cuộc gọi bán hàng.

Chẳng hạn, một chatbot AI sử dụng tại một ngân hàng có thể bị lừa tiến hành giao dịch trái phép nếu tin tặc đưa ra “chỉ dẫn” đúng.

“Các tổ chức xây dựng dịch vụ xung quanh LLMs cần cẩn trọng trên tinh thần họ đang sử dụng một sản phẩm mới ở giai đoạn thử nghiệm (beta)”, trích thông báo của NCSC, đề cập đến những AI phát hành thử nghiệm gần đây.

Cuộc thăm dò mới nhất của Reuters/Ipsos cho thấy nhiều nhân viên công ty đang sử dụng công cụ như ChatGPT để thực hiện các tác vụ cơ bản như dự thảo mail, tóm tắt tài liệu và thu thập dữ liệu nghiên cứu ban đầu.

Trong đó chỉ 10% nhân viên nói rằng cấp trên của họ cấm sử dụng công cụ AI bên ngoài một cách rõ ràng và 25% không biết liệu công ty có cho phép sử dụng công nghệ này hay không.

Oseloka Obiora, giám đốc công nghệ tại hãng bảo mật RiverSafe nhận định, cuộc đua tích hợp AI vào mô hình kinh doanh sẽ tạo ra những “hậu quả thảm khốc” khi lãnh đạo doanh nghiệp không tiến hành những bước kiểm tra cần thiết. “Thay vì đu theo xu hướng AI, các giám đốc cấp cao nên suy nghĩ kỹ và tiến hành đánh giá lợi ích/rủi ro, cũng như các biện pháp bảo mật cần thiết để bảo vệ doanh nghiệp”.

Tin giả và tin tặc

Trên toàn thế giới, chính phủ các nước cũng đang tìm cách quản lý sự trỗi dậy của các LLM như ChatGPT của OpenAI. Lo ngại về tính bảo mật của công nghệ mới cũng là trọng tâm chính sách khi Mỹ và Canada gần đây nói rằng họ đã phát hiện tin tặc tăng cường lợi dụng AI tạo sinh.

Một hacker thậm chí nói rằng anh ta phát hiện một LLM đã được “huấn luyện” bằng các tài liệu độc hại và thử yêu cầu nó xây dựng kế hoạch lừa đảo chuyển tiền. Đáp lại, AI tạo ra bức thư điện tử dài ba đoạn, yêu cầu người nhận thanh toán hoá đơn khẩn cấp.

Tháng 7/2023, Trung tâm An ninh mạng Canada ghi nhận việc gia tăng sử dụng AI trong “lừa đảo qua email, nhúng mã độc, thông tin sai lệch và xuyên tạc”. Sami Khoury, giám đốc trung tâm không cung cấp bằng chứng chi tiết, song khẳng định giới tội phạm mạng đang tích cực lợi dụng công nghệ mới nổi này.

Lãnh đạo này cũng cho biết, mặc dù việc sử dụng AI soạn thảo mã độc mới ở giai đoạn đầu, song mô hình AI đang phát triển quá nhanh dễ dẫn đến mức không thể kiểm soát những rủi ro độc hại của chúng.

Trước đó, tháng 3/2023, tổ chức Cảnh sát châu Âu Europol công bố báo cáo nói rằng ChatGPT có thể “mạo danh tổ chức, cá nhân theo cách rất thực tế ngay cả khi chỉ sử dụng tiếng Anh một cách cơ bản”. Cùng tháng, Trung tâm An ninh mạng quốc gia Anh nói rằng “LLM có thể được sử dụng để hỗ trợ các cuộc tấn công mạng”.

(Theo Reuters)

Bốn mô hình AI hàng đầu tranh tài ‘bịa chuyện’

Bốn mô hình AI hàng đầu tranh tài ‘bịa chuyện’

Nghiên cứu mới nhất cho thấy các mô hình AI hàng đầu của Meta, OpenAI, Cohere và Anthropic đều tạo ra thông tin sai lệch." />

Doanh nghiệp cần đánh giá rủi ro bảo mật khi tích hợp các công cụ chatbot AI

Công nghệ 2025-03-03 01:49:29 5722

Cơ quan An ninh mạng Vương quốc Anh cảnh báo các tổ chức đang tích hợp chatbot trí tuệ nhân tạo (AI) vào sản phẩm và dịch vụ,ệpcầnđánhgiárủirobảomậtkhitíchhợpcáccôngcụchu thanh huyền nghiên cứu cho thấy các công cụ AI dễ dàng bị dẫn dắt thực hiện những tác vụ độc hại.

Trong bài đăng trên blog ngày 30/8, Trung tâm An ninh mạng Vương quốc Anh (NCSC) cho hay, các chuyên gia vẫn chưa thể nắm bắt được các vấn đề an ninh mạng tiềm ẩn gắn với những thuật toán có thể tương tác “giống con người”, tức các mô hình ngôn ngữ lớn (LLM).

NCSC cho biết điều này mang theo những rủi ro, khi các mô hình như vậy được đưa vào quy trình kinh doanh của doanh nghiệp. Giới học giả và nghiên cứu gần đây liên tục tìm ra cách “đánh lừa” AI, hướng dẫn chatbot thực hiện lừa đảo hay phá vỡ các rào chắn bảo vệ được tích hợp.

Công cụ tích hợp AI tạo sinh đang được sử dụng như chatbot, được cho sẽ thay thế không chỉ các hoạt động tìm kiếm trên Internet mà còn công việc liên quan dịch vụ khách hàng hay cuộc gọi bán hàng.

Chẳng hạn, một chatbot AI sử dụng tại một ngân hàng có thể bị lừa tiến hành giao dịch trái phép nếu tin tặc đưa ra “chỉ dẫn” đúng.

“Các tổ chức xây dựng dịch vụ xung quanh LLMs cần cẩn trọng trên tinh thần họ đang sử dụng một sản phẩm mới ở giai đoạn thử nghiệm (beta)”, trích thông báo của NCSC, đề cập đến những AI phát hành thử nghiệm gần đây.

Cuộc thăm dò mới nhất của Reuters/Ipsos cho thấy nhiều nhân viên công ty đang sử dụng công cụ như ChatGPT để thực hiện các tác vụ cơ bản như dự thảo mail, tóm tắt tài liệu và thu thập dữ liệu nghiên cứu ban đầu.

Trong đó chỉ 10% nhân viên nói rằng cấp trên của họ cấm sử dụng công cụ AI bên ngoài một cách rõ ràng và 25% không biết liệu công ty có cho phép sử dụng công nghệ này hay không.

Oseloka Obiora, giám đốc công nghệ tại hãng bảo mật RiverSafe nhận định, cuộc đua tích hợp AI vào mô hình kinh doanh sẽ tạo ra những “hậu quả thảm khốc” khi lãnh đạo doanh nghiệp không tiến hành những bước kiểm tra cần thiết. “Thay vì đu theo xu hướng AI, các giám đốc cấp cao nên suy nghĩ kỹ và tiến hành đánh giá lợi ích/rủi ro, cũng như các biện pháp bảo mật cần thiết để bảo vệ doanh nghiệp”.

Tin giả và tin tặc

Trên toàn thế giới, chính phủ các nước cũng đang tìm cách quản lý sự trỗi dậy của các LLM như ChatGPT của OpenAI. Lo ngại về tính bảo mật của công nghệ mới cũng là trọng tâm chính sách khi Mỹ và Canada gần đây nói rằng họ đã phát hiện tin tặc tăng cường lợi dụng AI tạo sinh.

Một hacker thậm chí nói rằng anh ta phát hiện một LLM đã được “huấn luyện” bằng các tài liệu độc hại và thử yêu cầu nó xây dựng kế hoạch lừa đảo chuyển tiền. Đáp lại, AI tạo ra bức thư điện tử dài ba đoạn, yêu cầu người nhận thanh toán hoá đơn khẩn cấp.

Tháng 7/2023, Trung tâm An ninh mạng Canada ghi nhận việc gia tăng sử dụng AI trong “lừa đảo qua email, nhúng mã độc, thông tin sai lệch và xuyên tạc”. Sami Khoury, giám đốc trung tâm không cung cấp bằng chứng chi tiết, song khẳng định giới tội phạm mạng đang tích cực lợi dụng công nghệ mới nổi này.

Lãnh đạo này cũng cho biết, mặc dù việc sử dụng AI soạn thảo mã độc mới ở giai đoạn đầu, song mô hình AI đang phát triển quá nhanh dễ dẫn đến mức không thể kiểm soát những rủi ro độc hại của chúng.

Trước đó, tháng 3/2023, tổ chức Cảnh sát châu Âu Europol công bố báo cáo nói rằng ChatGPT có thể “mạo danh tổ chức, cá nhân theo cách rất thực tế ngay cả khi chỉ sử dụng tiếng Anh một cách cơ bản”. Cùng tháng, Trung tâm An ninh mạng quốc gia Anh nói rằng “LLM có thể được sử dụng để hỗ trợ các cuộc tấn công mạng”.

(Theo Reuters)

Bốn mô hình AI hàng đầu tranh tài ‘bịa chuyện’

Bốn mô hình AI hàng đầu tranh tài ‘bịa chuyện’

Nghiên cứu mới nhất cho thấy các mô hình AI hàng đầu của Meta, OpenAI, Cohere và Anthropic đều tạo ra thông tin sai lệch.
本文地址:http://tw.tour-time.com/news/35f099665.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

全站热门

Nhận định, soi kèo Galatasaray vs Konyaspor, 23h00 ngày 27/2: Hướng tới ngôi đầu

20 hoa hậu, á hậu tham gia giải chạy Strong Vietnam 2024

Phương Mỹ Chi ra MV trẻ trung sau thời gian hát nhạc buồn

Nhận định, soi kèo Plymouth với Preston North End, 22h00 ngày 16/03: Trượt dài

Siêu máy tính dự đoán Valladolid vs Las Palmas, 03h00 ngày 1/3

Cẩm Vân cùng dàn sao trẻ kể chuyện tình Trịnh Công Sơn trong show nhạc xuyên Việt

Mỹ Tâm tiết lộ lý do 6 năm không mời Đức Phúc hát

Nhận định, soi kèo Atletico Junior với Jaguares de Cordoba, 8h10 ngày 16/3: Chờ đợi bất ngờ

友情链接