您的当前位置:首页 > Kinh doanh > Máy móc hiểu con người mà không cần nghe giọng nói 正文
时间:2025-04-21 07:28:16 来源:网络整理 编辑:Kinh doanh
Hai nghiên cứu đã chứng minh máy móc có thể hiểu những gì con người nói mà không cần nghe giọng nói bảng xếp hạng ngoại hang anhbảng xếp hạng ngoại hang anh、、
Hai nghiên cứu đã chứng minh máy móc có thể hiểu những gì con người nói mà không cần nghe giọng nói của họ.
![]() |
Trí tuệ nhân tạo hơn hẳn con người trong nhận dạng ngôn ngữ từ tín hiệu môi. Ảnh: MIT Technology Review. |
Hiểu từ ngữ từ cách ra hiệu môi là một bài toán khó,áymóchiểuconngườimàkhôngcầnnghegiọngnóbảng xếp hạng ngoại hang anh phụ thuộc hoàn cảnh và khả năng thông hiểu ngôn ngữ thông qua tín hiệu thị giác. Tuy nhiên, các nhà nghiên cứu đã chứng minh rằng máy móc có thể nhận dạng ngôn ngữ từ một đoạn video câm tốt hơn cả những người hiểu cách ra hiệu môi chuyên nghiệp.
Nhóm nghiên cứu thuộc ngành Khoa học máy tính của đại học Oxford đã phát triển hệ thống trí tuệ nhân tạo mang tên LipNet. Hệ thống được xây dựng trên cơ sở dữ liệu GRID, tạo nên từ một loạt clip trực tiếp về những người đang đọc các mẫu câu đơn giản.
Nhóm đã sử dụng dữ liệu này để phát triển một hệ thống nơ-ron công nghệ nhận diện ngôn ngữ. Dù hệ thống nhận diện sai lệch từ ngữ nhiều lần, quá trình học nhằm liên kết thông tin đến giải thích những gì đang được nói đã diễn ra, bởi lẽ tín hiệu môi luôn ít hơn số âm thanh mà chúng thể hiện.
Từ đây, máy móc bắt đầu xem xét toàn bộ đoạn video, phát triển khả năng hiểu đoạn văn từ các câu được phân tích.
Khi thử nghiệm, hệ thống có thể nhận diện chính xác đến 93,4%. Trong khi đó, những tình nguyện viên được yêu cầu đọc tín hiệu môi trong bài tập này đoán đúng chỉ 52,3% số từ.
Bên cạnh đó, theo tờ New Scientist, một nhóm khác thuộc ngành Khoa học kĩ thuật của đại học Oxford, làm việc với Google DeepMind, đã nghiên cứu vấn đề với một bài tập khó hơn về ngôn ngữ. Thay vì dùng cơ sở dữ liệu đơn giản và nhất quán như GRID, nhóm này dùng đến 100.000 video ở cấp độ từ ngữ rộng và phát âm phức tạp từ đài BBC.
Với phương pháp tương tự, nhóm từ Oxford và DeepMind đã xây dựng một cỗ máy với khả năng nhận diện đúng 46,8% tất cả từ ngữ. Kết quả này cho thấy chúng hoạt động tốt hơn cả con người với chỉ 12,4% từ đúng.
Gác lại những khác biệt, cả hai thí nghiệm chứng tỏ trí tuệ nhân tạo hơn hẳn con người trong nhận dạng ngôn ngữ từ tín hiệu môi, và không lâu nữa, chúng ta rồi sẽ chứng kiến những ứng dụng đầy tiềm năng cho lĩnh vực này.
Trong tương lai, biết đâu Skype cũng sẽ áp dụng chúng bằng cách ghi lại lời thoại, khi người gọi đang ở một chốn ồn ào, hoặc người nghe gặp khó khăn để giữ smartphone và lắng nghe trọn vẹn đầu dây bên kia?
Theo Zing/New Scientist
Nhận định, soi kèo nữ Arsenal vs nữ Lyon, 18h30 ngày 19/4: Khó có bất ngờ2025-04-21 07:13
Kawasaki W8002025-04-21 07:07
Diễm Quỳnh2025-04-21 06:31
Nhóm MTV chính thức tái hợp với “Trở về”2025-04-21 06:30
Nhận định, soi kèo Borussia Dortmund vs Monchengladbach, 22h30 ngày 20/4: Mục tiêu cuối cùng2025-04-21 06:21
Gia vị Việt Nam xuất khẩu nhiều nhất thế giới: Bổ tim, khắc tinh tiểu đường2025-04-21 06:12
Chuyên gia văn hóa: Ăn cỗ nhận phần là một thói quen tốt2025-04-21 06:09
Hình Việt Trinh trong bộ phim Sao em vội lấy chồng2025-04-21 06:07
Soi kèo góc Brentford vs Brighton, 21h00 ngày 19/42025-04-21 05:49
Khi con ngoại tình, mẹ cha nào không muối mặt2025-04-21 05:22
Nhận định, soi kèo Lecce vs Como, 20h00 ngày 19/4: Trụ hạng thành công2025-04-21 06:58
Chán nản sau quan hệ có phải bị bệnh?2025-04-21 06:48
Khán giả 'phát điên' vì Uyên Linh và dàn nhạc Rhapsody2025-04-21 06:23
Tây Ban Nha: 4.000 người là nạn nhân của đường dây tống tiền tình dục2025-04-21 05:55
Nhận định, soi kèo Nice vs Angers, 22h15 ngày 20/4: Khó cho chủ nhà2025-04-21 05:50
Các người đẹp Việt trải nghiệm cà phê thiền trong 24h2025-04-21 05:47
Ngoại tình: Phát hiện vợ ngoại tình, chồng nhất định đòi đi tu2025-04-21 05:23
Hưởng cái ngàn vàng xong anh phụ bạc2025-04-21 05:15
Nhận định, soi kèo Leicester City vs Liverpool, 22h30 ngày 20/4: Khó lường2025-04-21 05:04
Ghét cay ghét đắng chồng, vẫn thèm làm 'chuyện ấy' mỗi tối2025-04-21 04:51