Microsoft ra mắt phần mềm phát hiện ảnh và video giả mạo

Microsoft cho biết phần mềm xác thực Video Authenticator sử dụng kỹ thuật “deepfake” có tính năng phân tích một hình ảnh hoặc từng bố cục của một video, phát hiện bằng chứng giả mạo.

Microsoft ra mắt phần mềm phát hiện ảnh và video giả mạo

Phần mềm của Microsoft có thể phát hiện các bức ảnh và video giả mạo. (Ảnh minh họa. Nguồn: Computing.co.uk)

Tập đoàn đa quốc gia Microsoft của Mỹ mới đây ra mắt phần mềm có khả năng giúp phát hiện các bức ảnh và video giả mạo sử dụng kỹ thuật “deepfake.”

Tập đoàn này cũng đã bổ sung danh sách các chương trình được lập trình nhằm “tuyên chiến” với các hình ảnh giả mạo khó phát hiện trước thềm cuộc bầu cử Tổng thống Mỹ cuối năm nay.

Trong bài viết đăng tải ngày 1/9, Microsoft cho biết phần mềm xác thực Video Authenticator sử dụng kỹ thuật “deepfake” có tính năng phân tích một hình ảnh hoặc từng bố cục của một video, phát hiện bằng chứng giả mạo mà mắt thường không thể nhìn thấy được.

Microsoft nêu rõ deepfake có khả năng khiến con người nói những điều mà thực sự họ chưa từng nói hoặc có mặt ở những nơi mà trên thực tế họ chưa từng đến.

Deepfake là một kỹ thuật tổng hợp hình ảnh, video, đoạn ghi âm dựa trên trí tuệ nhân tạo. Trong thời gian gần đây, rất nhiều tài khoản mạng xã hội Facebook và Twitter đã chia sẻ những hình ảnh hoặc video là “tác phẩm” của kỹ thuật này.

Deepfake là một phần trong thế giới các tin tức giả mạo trực tuyến ngày nay và giới chuyên gia cảnh báo các tin tức giả mạo này có thể truyền tải đi những thông điệp dễ gây hiểu lầm hoặc hoàn toàn sai sự thật.

Các bài viết giả mạo nhưng giống như thật là vấn đề vô cùng đáng quan ngại trước thềm cuộc bầu cử thổng thống Mỹ vào tháng 11 tới, đặc biệt sau khi các bài viết sai sự thật trên mạng xã hội “nở rộ” trong giai đoạn cuộc bầu cử năm 2016.

Hiện Microsoft đang cộng tác với công ty trí tuệ nhân tạo AI Foundation ở San Francisco để có thể triển khai công cụ Video Authenticator nói trên trong các chiến dịch chính trị, tại các tòa soạn tin tức và nhiều đơn vị truyền thông khác.

Microsoft cũng cho biết đã tạo lập công nghệ titan trên nền tảng điện toán đám mây Azure của hãng, giúp người tạo ảnh hoặc dựng video kiểm chứng tính xác thực của hình ảnh hoặc video mà họ sẽ sử dụng.

Theo kế hoạch, Microsoft sẽ tiến hành thử nghiệm công nghệ titan đối với các tổ chức truyền thông, trong đó có tổ hợp truyền thông BBC của Anh và báo New York Times của Mỹ.

Ngoài ra, tập đoàn này cũng đang làm việc với Đai học Washington và nhiều đơn vị khác nhằm nâng cao nhận thức của người dân, giúp họ có khả năng phân biệt giữa tin giả với các nguồn tin đáng tin cậy.

Theo Vietnam+

Đọc thêm

Cách sử dụng Meta AI trên điện thoại và máy tính siêu đơn giản

Cách sử dụng Meta AI trên điện thoại và máy tính siêu đơn giản

Meta AI, một trong những nền tảng trí tuệ nhân tạo tiên tiến nhất, đã thu hút sự chú ý của người dùng toàn cầu ngay từ khi ra mắt. Tuy nhiên, giờ đây, người dùng tại Việt Nam mới có cơ hội trải nghiệm miễn phí những tính năng mạnh mẽ mà Meta AI mang lại.
Cách sử dụng máy chiếu an toàn

Cách sử dụng máy chiếu an toàn

Hiện nay, nhiều gia đình lựa chọn máy chiếu để phục vụ các mục đích giải trí thay cho tivi. Tuy nhiên, nhiều người vẫn còn lo lắng việc xem máy chiếu có hại mắt không.
Khắc phục lỗi iOS 18 hao pin siêu đơn giản

Khắc phục lỗi iOS 18 hao pin siêu đơn giản

iOS 18 phiên bản hệ điều hành mới nhất từ Apple, mang đến nhiều tính năng hấp dẫn và cải tiến vượt trội. Tuy nhiên, không ít người dùng đã phàn nàn về tình trạng hao pin nhanh chóng sau khi cập nhật lên iOS 18.
Cách xem lịch sử đăng nhập trên TikTok

Cách xem lịch sử đăng nhập trên TikTok

Kiểm tra lịch sử đăng nhập Tiktok giúp bạn nắm được thông tin về các thiết bị đã truy cập tài khoản, từ đó phát hiện kịp thời các hoạt động đáng ngờ hoặc trái phép.
Diễn tập thực chiến về an toàn thông tin

Diễn tập thực chiến về an toàn thông tin

Diễn tập thực chiến đã góp phần nâng cao năng lực ứng phó và khôi phục nhanh nhất khi xảy ra sự cố về hệ thống thông tin cho đội ngũ cán bộ chuyên trách công nghệ thông tin Hà Tĩnh.