W-toa-dam-chat-gpt-0-1-1.jpg
Giáo sư, Tiến sĩ Nguyễn Thanh Thủy, Chủ tịch Câu lạc bộ FISU (bên trái) và Tiến sĩ Đặng Minh Tuấn, Viện trưởng Viện Nghiên cứu Ứng dụng CMC trao đổi tại tọa đàm trực tuyến “Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam”. 

Trao đổi tại tọa đàm trực tuyến chủ đề “Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam” vừa được tạp chí An toàn thông tin (Ban Cơ yếu Chính phủ) tổ chức, Giáo sư, Tiến sĩ Nguyễn Thanh Thủy, nguyên Phó Hiệu trưởng Đại học Công nghệ, Ủy viên Hội đồng Giáo sư nhà nước, Chủ tịch Hội đồng Giáo sư ngành CNTT, Chủ tịch Câu lạc bộ các khoa, viện, trường CNTT-TT Việt Nam (FISU) lưu ý, trí tuệ nhân tạo và ChatGPT là một hệ thống các công cụ để tạo sinh ra các sản phẩm.

Theo thuật ngữ của những người làm CNTT, chương trình thì bằng cấu trúc dữ liệu cộng với giải thuật, ChatGPT bằng mô hình ngôn ngữ lớn với kho dữ liệu “khổng lồ” và công nghệ xử lý chính là GPT. ChatGPT của OpenAI là sự kết hợp nhiều công nghệ của trí tuệ nhân tạo, trong đó, sử dụng công nghệ chính là deep learning trên kho dữ liệu cực lớn. Big Data này chứa đến 300 tỷ từ, 175 tỷ tham số.

Vì thế, theo phân tích của Tiến sĩ Nguyễn Thanh Thủy, với ChatGPT, vi phạm tính riêng tư nếu có nó sẽ nằm ở dữ liệu chứ không nằm ở mô hình và cũng không nằm ở phần công nghệ. Các dữ liệu như thông tin cá nhân, sách, báo, tài liệu, thông tin trên trang web… sẽ dẫn đến vi phạm của người dùng là không xin phép mà đã tự ý sử dụng dữ liệu.

Ngoài ra, khi sử dụng ChatGPT nó có thể cắt một phần nội dung trong đó và điều đó sẽ không đảm bảo được tính toàn vẹn.

Một điều nữa liên quan đến vi phạm tính riêng tư thể hiện ở chỗ bản quyền của sách, báo tài liệu, dữ liệu cá nhân của người dùng. “Mặt khác, việc không công khai, không minh bạch trong cơ chế sử dụng, phát tán, đưa dữ liệu thông tin lên mạng, không trả phí, sử dụng dữ liệu của người khác miễn phí và sau đó lại tạo ra sản phẩm có khả năng thu phí cũng là một điểm vi phạm tính riêng tư của ChatGPT”, Tiến sĩ Nguyễn Thanh Thủy nêu quan điểm.

Đề cập đến những thách thức bảo mật từ việc sử dụng ChatGPT, Tiến sĩ Đặng Minh Tuấn, Viện trưởng Viện Nghiên cứu Ứng dụng CMC, Trưởng phòng lab Blockchain của Học viện Công nghệ Bưu chính Viễn thông (PTIT), Phó Chủ tịch Câu lạc bộ Fintech của Hiệp hội Ngân hàng Việt Nam nhận định, bên cạnh những mặt tích cực, ChatGPT cũng đưa đến nhiều nguy cơ và một số nội dung thông tin độc hại mang tính chất tiêu cực.

Cụ thể như, việc sử dụng ChatGPT có thể gây lộ lọt thông tin cá nhân. "Tội phạm mạng cũng có thể khai thác, lợi dụng ChatGPT làm phương tiện để tạo ra những nội dung lừa đảo, hoặc có thể khai thác thông tin để chế tạo ra những sản phẩm độc hại như vũ khí. Cùng với đó, nhiều tin tặc còn sử dụng ChatGPT để phát triển mã độc, những phần mềm lừa đảo. Đây là một số mặt trái của ChatGPT”, Tiến sĩ Đặng Minh Tuấn nhấn mạnh.

hacker.jpg
Theo các chuyên gia, bên cạnh những tiện ích, việc sử dụng ChatGPT cũng đưa lại những rủi ro, thách thức, trong đó có rủi ro về an toàn thông tin. (Ảnh minh họa: Internet)

Đưa ra lời khuyên với người dùng để bảo vệ mình trước những rủi ro mất an toàn toàn thông tin từ ChatGPT, Tiến sĩ Đặng Minh Tuấn chia sẻ, tương tự như khi tham gia giao thông ngoài xã hội cần tìm hiểu kỹ luật giao thông và các khả năng rủi ro, người dùng khi tham gia mạng xã hội cũng cần tự trau dồi, nâng cao kỹ năng, hiểu biết của bản thân về an toàn thông tin mạng nhằm tự bảo vệ mình khỏi các cuộc tấn công. Chẳng hạn như, để phòng tránh bị lừa đảo trực tuyến, người dùng cần nâng cao cảnh giác, tương tác để kiểm tra lại tính chính xác của thông tin.

Còn theo Tiến sĩ Nguyễn Thanh Thủy, để giảm thiểu các rủi ro mất an toàn thông tin do ChatGPT nói riêng và công nghệ trí tuệ nhân tạo đưa lại, cần một giải pháp tổng thể, không chỉ gồm những yếu tố công nghệ mà còn cần thêm các yếu tố quy trình và con người. Trong đó, con người thì cần phải thông minh và quy trình thì phải chặt chẽ.

“Tôi cũng cung cấp thêm thông tin, đầu tiên là về vấn đề tạo ra trí tuệ nhân tạo có trách nhiệm, nó nằm chủ yếu ở phần dữ liệu, phương thức thu thập dữ liệu, nguồn dữ liệu và chất lượng để phục vụ cho việc huấn luyện trí tuệ nhân tạo. Thứ hai, tạo ra đạo đức sử dụng các sản phẩm trí tuệ nhân tạo, trong đó có cả dữ liệu và sử dụng hệ thống. Thứ ba, dần dần con người đã đưa ra các công cụ như zero GPT để tạo ra “liêm chính”. Học sinh, sinh viên có thể sử dụng ChatGPT trong học tập nhưng cần phải trung thực, sử dụng sản phẩm đấy chỉ để tham khảo”, Tiến sĩ Nguyễn Thanh Thủy nêu quan điểm.

Mã độc dịch vụ, công cụ nguy hiểm mới của giới tội phạm mạng

Mã độc dịch vụ, công cụ nguy hiểm mới của giới tội phạm mạng

Các nhà nghiên cứu an ninh mạng cảnh báo về tình trạng gia tăng một công cụ nguy hiểm mới của tội phạm mạng – mã độc dịch vụ" />

Nhiều tin tặc sử dụng ChatGPT để phát triển mã độc, phần mềm lừa đảo

Bóng đá 2025-01-30 13:40:39 1221

Cuối năm 2022,ềutintặcsửdụngChatGPTđểpháttriểnmãđộcphầnmềmlừađảbảng xếp hạng câu lạc bộ ý sự xuất hiện của một ứng dụng mới có tên gọi ChatGPT do công ty OpenAI (Mỹ) phát triển đã làm giới công nghệ trên toàn thế giới phải quan tâm và nhanh chóng thu hút được số lượng lớn người dùng.

ChatGPT thu thập cơ sở dữ liệu văn bản từ Internet như sách, bài báo, các cuộc hội thoại trực tuyến, có khả năng dự đoán và tạo ra câu trả lời đúng nhất cho câu hỏi của người dùng trong mọi lĩnh vực. ChatGPT còn có thể làm thơ, soạn nhạc, viết thư, thiết kế, thậm chí là sửa lỗi trong lập trình.

Ngoài ra, với ứng dụng ChatGPT, thay vì tìm kiếm thông tin trên Google, người dùng sẽ tương tác trực tiếp như với người thật.

Tuy nhiên, theo các chuyên gia, khi nhiều cá nhân và tổ chức sử dụng ChatGPT thì đó cũng là lúc mọi thứ trở nên phức tạp. Bên cạnh những lợi ích mà ChatGPT mang lại cũng còn nhiều vấn đề đáng lo ngại, đặc biệt là về những thách thức bảo mật mà ChatGPT nói riêng và trí tuệ nhân tạo nói chung đặt ra.

W-toa-dam-chat-gpt-0-1-1.jpg
Giáo sư, Tiến sĩ Nguyễn Thanh Thủy, Chủ tịch Câu lạc bộ FISU (bên trái) và Tiến sĩ Đặng Minh Tuấn, Viện trưởng Viện Nghiên cứu Ứng dụng CMC trao đổi tại tọa đàm trực tuyến “Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam”. 

Trao đổi tại tọa đàm trực tuyến chủ đề “Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam” vừa được tạp chí An toàn thông tin (Ban Cơ yếu Chính phủ) tổ chức, Giáo sư, Tiến sĩ Nguyễn Thanh Thủy, nguyên Phó Hiệu trưởng Đại học Công nghệ, Ủy viên Hội đồng Giáo sư nhà nước, Chủ tịch Hội đồng Giáo sư ngành CNTT, Chủ tịch Câu lạc bộ các khoa, viện, trường CNTT-TT Việt Nam (FISU) lưu ý, trí tuệ nhân tạo và ChatGPT là một hệ thống các công cụ để tạo sinh ra các sản phẩm.

Theo thuật ngữ của những người làm CNTT, chương trình thì bằng cấu trúc dữ liệu cộng với giải thuật, ChatGPT bằng mô hình ngôn ngữ lớn với kho dữ liệu “khổng lồ” và công nghệ xử lý chính là GPT. ChatGPT của OpenAI là sự kết hợp nhiều công nghệ của trí tuệ nhân tạo, trong đó, sử dụng công nghệ chính là deep learning trên kho dữ liệu cực lớn. Big Data này chứa đến 300 tỷ từ, 175 tỷ tham số.

Vì thế, theo phân tích của Tiến sĩ Nguyễn Thanh Thủy, với ChatGPT, vi phạm tính riêng tư nếu có nó sẽ nằm ở dữ liệu chứ không nằm ở mô hình và cũng không nằm ở phần công nghệ. Các dữ liệu như thông tin cá nhân, sách, báo, tài liệu, thông tin trên trang web… sẽ dẫn đến vi phạm của người dùng là không xin phép mà đã tự ý sử dụng dữ liệu.

Ngoài ra, khi sử dụng ChatGPT nó có thể cắt một phần nội dung trong đó và điều đó sẽ không đảm bảo được tính toàn vẹn.

Một điều nữa liên quan đến vi phạm tính riêng tư thể hiện ở chỗ bản quyền của sách, báo tài liệu, dữ liệu cá nhân của người dùng. “Mặt khác, việc không công khai, không minh bạch trong cơ chế sử dụng, phát tán, đưa dữ liệu thông tin lên mạng, không trả phí, sử dụng dữ liệu của người khác miễn phí và sau đó lại tạo ra sản phẩm có khả năng thu phí cũng là một điểm vi phạm tính riêng tư của ChatGPT”, Tiến sĩ Nguyễn Thanh Thủy nêu quan điểm.

Đề cập đến những thách thức bảo mật từ việc sử dụng ChatGPT, Tiến sĩ Đặng Minh Tuấn, Viện trưởng Viện Nghiên cứu Ứng dụng CMC, Trưởng phòng lab Blockchain của Học viện Công nghệ Bưu chính Viễn thông (PTIT), Phó Chủ tịch Câu lạc bộ Fintech của Hiệp hội Ngân hàng Việt Nam nhận định, bên cạnh những mặt tích cực, ChatGPT cũng đưa đến nhiều nguy cơ và một số nội dung thông tin độc hại mang tính chất tiêu cực.

Cụ thể như, việc sử dụng ChatGPT có thể gây lộ lọt thông tin cá nhân. "Tội phạm mạng cũng có thể khai thác, lợi dụng ChatGPT làm phương tiện để tạo ra những nội dung lừa đảo, hoặc có thể khai thác thông tin để chế tạo ra những sản phẩm độc hại như vũ khí. Cùng với đó, nhiều tin tặc còn sử dụng ChatGPT để phát triển mã độc, những phần mềm lừa đảo. Đây là một số mặt trái của ChatGPT”, Tiến sĩ Đặng Minh Tuấn nhấn mạnh.

hacker.jpg
Theo các chuyên gia, bên cạnh những tiện ích, việc sử dụng ChatGPT cũng đưa lại những rủi ro, thách thức, trong đó có rủi ro về an toàn thông tin. (Ảnh minh họa: Internet)

Đưa ra lời khuyên với người dùng để bảo vệ mình trước những rủi ro mất an toàn toàn thông tin từ ChatGPT, Tiến sĩ Đặng Minh Tuấn chia sẻ, tương tự như khi tham gia giao thông ngoài xã hội cần tìm hiểu kỹ luật giao thông và các khả năng rủi ro, người dùng khi tham gia mạng xã hội cũng cần tự trau dồi, nâng cao kỹ năng, hiểu biết của bản thân về an toàn thông tin mạng nhằm tự bảo vệ mình khỏi các cuộc tấn công. Chẳng hạn như, để phòng tránh bị lừa đảo trực tuyến, người dùng cần nâng cao cảnh giác, tương tác để kiểm tra lại tính chính xác của thông tin.

Còn theo Tiến sĩ Nguyễn Thanh Thủy, để giảm thiểu các rủi ro mất an toàn thông tin do ChatGPT nói riêng và công nghệ trí tuệ nhân tạo đưa lại, cần một giải pháp tổng thể, không chỉ gồm những yếu tố công nghệ mà còn cần thêm các yếu tố quy trình và con người. Trong đó, con người thì cần phải thông minh và quy trình thì phải chặt chẽ.

“Tôi cũng cung cấp thêm thông tin, đầu tiên là về vấn đề tạo ra trí tuệ nhân tạo có trách nhiệm, nó nằm chủ yếu ở phần dữ liệu, phương thức thu thập dữ liệu, nguồn dữ liệu và chất lượng để phục vụ cho việc huấn luyện trí tuệ nhân tạo. Thứ hai, tạo ra đạo đức sử dụng các sản phẩm trí tuệ nhân tạo, trong đó có cả dữ liệu và sử dụng hệ thống. Thứ ba, dần dần con người đã đưa ra các công cụ như zero GPT để tạo ra “liêm chính”. Học sinh, sinh viên có thể sử dụng ChatGPT trong học tập nhưng cần phải trung thực, sử dụng sản phẩm đấy chỉ để tham khảo”, Tiến sĩ Nguyễn Thanh Thủy nêu quan điểm.

Mã độc dịch vụ, công cụ nguy hiểm mới của giới tội phạm mạng

Mã độc dịch vụ, công cụ nguy hiểm mới của giới tội phạm mạng

Các nhà nghiên cứu an ninh mạng cảnh báo về tình trạng gia tăng một công cụ nguy hiểm mới của tội phạm mạng – mã độc dịch vụ
本文地址:http://tw.tour-time.com/news/944c498915.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

全站热门

Nhận định, soi kèo Fulham vs MU, 2h00 ngày 27/1: Chìm trong khủng hoảng

Trồn chồng vì sợ chồng đòi... "tình tang"
">

7 bí quyết cho “chuyện yêu” ở tuổi xế chiều

Nhận định, soi kèo Al Jubail vs Al Bukayriyah, 21h55 ngày 27/1: Chủ nhà thất thế

Những lỗi cần tránh khi hôn nàng

 - Ngay cả khi Quỷ đỏ đánh bại được Chelsea thì triều đại của Van Gaal ở Nhà hát của giấc mơ vẫn khép lại, vì ông không còn tự tin vào chính mình.

Triều đại Van Gaal kết thúc dù thắng Chelsea

Theo Telegraph, đêm nay, nhà cầm quân người Hà Lan sẽ dẫn dắt M.U "chiến" Chelsea, nhưng đó có thể cũng là trận đấu cuối cùng của ông ở Old Trafford, sau khi xuất hiện rằng ông cảm thấy ghế của mình bị lung lay dữ dội.

Sau thất bại 0-2 trước Stoke City, vị thuyền trưởng 64 tuổi đã gặp GĐĐH - Phó Chủ tịch Ed Woodward để nói về điều đó.

{keywords}

Hình ảnh Van Gaal vẫy chào CĐV sau thất bại trước Stoke City

Lịch tường thuật trực tiếp vòng 19 Ngoại hạng Anh

">

Van Gaal sẽ ra đi dù M.U có thắng Chelsea

Ông Nguyễn Thành Phúc, Cục trưởng Cục Tin học hóa - Bộ TT&TT.

Ông Nguyễn Thành Phúc cũng cho biết, chương trình đào tạo 100 chuyên gia nòng cốt triển khai Chính phủ điện tử nhắm đến các đối tượng là Trưởng phòng CNTT của các Sở TT&TT; Giám đốc Trung tâm CNTT-TT của các Sở TT&TT; Trưởng phòng ứng dụng CNTT của các cơ quan chuyên trách về CNTT như Cục CNTT của Bộ Y tế hay các Trung tâm CNTT của các Bộ, cơ quan ngang Bộ. 

Là chương trình được thiết kế thiên về đào tạo trực tuyến, do đó chương trình đào tạo 100 chuyên gia nòng cốt triển khai Chính phủ điện tử sắp được Bộ TT&TT cho ra mắt vào ngày 20/12 tới tuy vẫn có một số nội dung đào tạo trực tiếp song đại đa số sẽ là các bài giảng e-learning hoặc trực tuyến qua cầu truyền hình.

“Các bài giảng của chương trình đào tạo này chúng tôi sẵn sàng chia sẻ lên Trung tâm một cửa hỗ trợ triển khai Chính phủ điện tử tại địa chỉ egov.mic.gov.vn để các cơ quan, đơn vị có thêm kinh nghiệm, kiến thức trong quá trình tham gia xây dựng Chính phủ điện tử, chính quyền điện tử”, ông Nguyễn Thành Phúc chia sẻ.

Vấn đề tổ chức đào tạo đội ngũ nhân lực nòng cốt cho triển khai Chính phủ điện tử, chính quyền điện tử đã được Bộ trưởng Bộ TT&TT Nguyễn Mạnh Hùng đặt ra ngay khi nhiệm vụ thường trực Tổ công tác giúp việc Ủy ban quốc gia về Chính phủ điện tử được chuyển giao sang Bộ TT&TT.

Cụ thể, trong kết luận hội nghị giao ban quản lý nhà nước ngành TT&TT quý III/2019 vào ngày 5/9/2019, cùng với việc thông tin với lãnh đạo các đơn vị thuộc Bộ và các Sở TT&TT về việc Chính phủ, Thủ tướng Chính phủ đã quyết định chuyển nhiệm vụ xây dựng Chính phủ điện tử về Bộ TT&TT, Bộ trưởng Nguyễn Mạnh Hùng cũng nhấn mạnh: “Thời gian qua, Văn phòng Chính phủ rất tích cực và công việc đã được triển khai nhanh. Chuyển nhiệm vụ xây dựng Chính phủ điện tử về Bộ TT&TT, Thủ tướng Chính phủ đã chỉ đạo rõ không được phép làm kém hơn, phải làm tốt lên, với tốc độ nhanh hơn và chất lượng cao lên”.

">

Ra mắt chương trình đào tạo 100 chuyên gia nòng cốt triển khai Chính phủ điện tử trong tháng 12

友情链接