Cách đây không lâu, phương thức giao tiếp giữa người và xe chủ yếu thực hiện thông qua đèn cảnh báo. Đèn Check Engine cho thấy một vài số vấn đề về động cơ. Đèn ABS bật sáng cho thấy hệ thống phanh đã gặp sự cố... Tuy nhiên, đối với những lái xe chưa có nhiều kinh nghiệm sẽ gặp nhiều khó khăn trong việc xác định tình trạng của xe.
Trên những mẫu xe hiện đại hơn, việc giao tiếp dễ dàng hơn một chút thông qua mã code. Với mỗi mã tương ứng với một vấn đề, nhưng để biết chi tiết, tài xế phải tra cứu trong các sách hướng dẫn.
Chương trình trí tuệ nhân tạo sẽ phân tích các câu hỏi mà lái xe đặt ra, sau đó đưa ra câu trả lời tương ứng. Việc giao tiếp thông qua ngôn ngữ, hình ảnh hay đoạn phim, hoặc hình avatar ngộ nghĩnh đang chỉ các thông tin liên quan. Với mô-đun Touch and Tell, lái xe nhận được các giải thích cho chức năng bằng cách chạm vào khu vực tương ứng trên màn hình.
Các thử nghiệm dựa trên nền tảng Virtual Co-driver System (AviCoS) thiết kế để làm việc cùng một màn hình giao diện đa năng của Audi - thiết bị sẽ trở thành tiêu chuẩn cho tất cả các nhà sản xuất ôtô.
Bởi có rất nhiều chức năng hỗ trợ, AviCoS có thể làm lái xe mất tập trung. Để hạn chế vấn đề này, các kỹ sư thiết kế khử đi hình ảnh avatar đầu tiên. Sau đó tất cả sẽ hiển thị bằng ký hiệu. Khi ở tốc độ cao, màn hình trở lại những hình ảnh avatar cũ. Tuy nhiên điều này vẫn có thể làm tài xế thiếu tập trung.
Không chỉ dừng lại ở đó, các nhà nghiên cứu đang xem xét việc xác định tình trạng tập trung của lái xe bằng cách phân tích giọng và nhịp nói của họ. Nếu AviCoS nhận thấy sự thiếu tập trung của lái xe, hệ thống sẽ giảm các ứng dụng trên màn hình, tắt video. Khi được kết hợp với những hệ thống khác, nó cũng có thể thực hiện chức năng dẫn đường...
Thế Hoàng