Khám phá

4 điều tuyệt đối không được chia sẻ với Chatbot trí tuệ nhân tạo

  • Tác giả : Tuấn Huy (T/H)
Có những rủi ro cố hữu liên quan đến việc sử dụng chatbot AI, chẳng hạn như lo ngại về quyền riêng tư và các cuộc tấn công mạng tiềm ẩn. Điều quan trọng là phải thận trọng khi tương tác với chatbot.

Không tiết lộ mật khẩu

Một vụ vi phạm dữ liệu nghiêm trọng liên quan đến ChatGPT đã xảy ra vào tháng 5 năm 2022, làm dấy lên lo ngại nghiêm trọng về tính bảo mật của nền tảng chatbot. Hơn nữa, ChatGPT đã bị cấm ở Ý do Quy định bảo vệ dữ liệu chung (GDPR) của Liên minh châu Âu. Các nhà quản lý của Ý cho rằng chatbot AI không tuân thủ luật riêng tư, nêu bật những rủi ro vi phạm dữ liệu trên nền tảng. Do đó, việc bảo vệ thông tin đăng nhập của bạn khỏi các chatbot AI trở nên tối quan trọng.

Bằng cách hạn chế chia sẻ mật khẩu của mình với các mô hình chatbot này, bạn có thể chủ động bảo vệ thông tin cá nhân của mình và giảm khả năng trở thành nạn nhân của các mối đe dọa trên mạng. Hãy nhớ rằng, bảo vệ thông tin đăng nhập của bạn là một bước thiết yếu để duy trì quyền riêng tư và bảo mật trực tuyến của bạn.

Không tiết lộ về tình hình tài chính

Tội phạm mạng có thể sử dụng chatbot AI như ChatGPT để hack tài khoản ngân hàng của bạn. Với việc sử dụng rộng rãi các chatbot AI, nhiều người dùng đã chuyển sang các mô hình ngôn ngữ này để được tư vấn và quản lý tài chính cá nhân. Mặc dù họ có thể nâng cao hiểu biết về tài chính, nhưng điều quan trọng là phải biết những nguy cơ tiềm ẩn khi chia sẻ thông tin tài chính với các chatbot AI.

Khi sử dụng chatbot làm cố vấn tài chính, bạn có nguy cơ tiết lộ thông tin tài chính của mình cho tội phạm mạng tiềm năng, những kẻ có thể khai thác thông tin đó để rút tiền từ tài khoản của bạn. Mặc dù các công ty tuyên bố ẩn danh dữ liệu hội thoại, những bên thứ ba và một số nhân viên vẫn có thể có quyền truy cập vào dữ liệu đó. Điều này làm dấy lên mối lo ngại về việc lập hồ sơ, trong đó các chi tiết tài chính của bạn có thể được sử dụng cho mục đích xấu như chiến dịch ransomware hoặc bán cho những đại lý tiếp thị.

Không tiết lộ thông tin chi tiết về nhà ở và dữ liệu cá nhân khác

Điều quan trọng là không chia sẻ thông tin nhận dạng cá nhân (PII) với các chatbot AI. PII bao gồm dữ liệu nhạy cảm có thể được sử dụng để nhận dạng hoặc định vị bạn, bao gồm vị trí, số an sinh xã hội, ngày sinh và thông tin sức khỏe của bạn. Ưu tiên hàng đầu là đảm bảo quyền riêng tư của những chi tiết cá nhân và dân cư khi tương tác với các chatbot AI.

Thông tin bí mật về nơi làm việc của bạn

Một sai lầm khác mà người dùng phải tránh khi tương tác với chatbot AI là chia sẻ thông tin bí mật liên quan đến công việc. Ngay cả những gã khổng lồ công nghệ nổi tiếng như Apple, Samsung, JPMorgan và Google, người tạo ra Bard, đã hạn chế nhân viên của họ sử dụng chatbot AI tại nơi làm việc.

Một báo cáo của Bloomberg đã nêu bật trường hợp nhân viên của Samsung sử dụng ChatGPT để lập trình và vô tình upload code nhạy cảm lên nền tảng Generative AI. Sự cố này dẫn đến việc tiết lộ trái phép thông tin bí mật về Samsung, khiến công ty phải thực thi lệnh cấm sử dụng chatbot AI. Là một nhà phát triển đang tìm kiếm sự hỗ trợ từ AI để giải quyết các vấn đề về lập trình, đây là lý do tại sao bạn không nên tin tưởng các chatbot AI như ChatGPT với thông tin bí mật. Điều cần thiết là phải thận trọng khi chia sẻ code nhạy cảm hoặc các chi tiết liên quan đến công việc.

Tương tự như vậy, nhiều nhân viên dựa vào chatbot AI để tóm tắt biên bản cuộc họp hoặc tự động hóa các tác vụ lặp đi lặp lại, gây ra nguy cơ vô tình làm lộ dữ liệu nhạy cảm. Do đó, việc duy trì quyền riêng tư của thông tin công việc bí mật và hạn chế chia sẻ thông tin đó với các chatbot AI là vô cùng quan trọng.

Người dùng có thể bảo vệ thông tin nhạy cảm và tổ chức của họ khỏi rò rỉ hoặc vi phạm dữ liệu ngoài ý muốn bằng cách lưu ý đến các rủi ro liên quan đến việc chia sẻ dữ liệu liên quan đến công việc./.

Tuấn Huy (T/H)

BẢN DESKTOP