Trí tuệ nhân tạo (AI) đã trở thành một trong những lĩnh vực nghiên cứu và ứng dụng quan trọng nhất trong kỷ nguyên số hiện nay. Tuy nhiên, sự phát triển nhanh chóng của AI cũng đặt ra nhiều câu hỏi về định nghĩa, phương pháp và khả năng thực sự của các hệ thống máy tính hiện đại trong việc đạt được trí tuệ nhân tạo theo định nghĩa khoa học. Bài viết này phân tích các khía cạnh cơ bản của trí tuệ nhân tạo, lịch sử phát triển, những thành tựu và hạn chế hiện tại, đồng thời đánh giá tác động của việc dựa vào dữ liệu lớn và các mô hình thống kê đối với khả năng đạt được trí tuệ nhân tạo thực sự.

1. Tổng quan

1. Có một tập hợp các tính chất, mà bất kể vật thể nào, người, máy tính, hoặc bất kỳ cái gì khác thoả mãn tập hợp này thì có thể được coi là có trí tuệ. Tất nhiên là tập hợp này không phải bất di bất dịch, có khi khoa học phát triển lên thì nó lại tăng thêm hoặc giảm đi. Nhưng từ 1950s đến giờ nó chưa thay đổi.
2. Nếu muốn máy tính hay bất kỳ máy gì khác có trí tuệ, thì ngoài việc lưu trữ rất nhiều data, xử lý data theo những quy luật, định hướng đã chỉ định sẵn, thì máy móc, vật thể phải có khả năng hiểu được ngữ nghĩa và ngữ cảnh của data, từ đó mới có thể tìm ra giải pháp nhằm đạt tới mục đích mình muốn.Muốn thế, phải có một phương pháp biểu diễn data và một nền tảng toán logic khác với phương pháp biểu diễn data bằng số, các chuỗi số, ma trận số như trong Statistics và logic cổ điển hiện nay.
3. Đã có một thời kỳ ngành Trí tuệ Nhân tạo đi tìm hướng biểu diễn tri thức, xây dựng nền tảng khoa học tử tế, nhưng vào khoảng hai chục năm nay, bọn trọc phú dùng tiền thô bỉ hoá khoa học đã đẩy ngược AI trở lại thời dùng Statistics, cứ tưởng có đủ nhiều data là máy tính thành thông minh.

2. Định nghĩa và tính chất cơ bản của trí tuệ nhân tạo

Nếu nói như Alan Turing nói, "Khi có một việc gì đó được làm mà ta không phân biệt được đó là do người làm hay máy làm, thì đó gọi là Trí tuệ nhân tạo", thì AI có từ lâu rồi.
Ví dụ phép cộng 2 + 2 = 4 thì người làm hay máy tính làm cũng như nhau cả thôi, bố ai mà biết được là người tính trong đầu ra hay máy cộng các bit mà ra.
Nhưng kể từ khi giáo sư John McCarthy của MIT formalize định nghĩa về AI từ hồi những năm 1950s đến giờ, thì rất ít hệ thống có thể coi là có trí tuệ, hoặc không có trí tuệ hơn một đứa trẻ con hai tuổi.
Người không có chuyên môn sẽ nghĩ nhận định ở trên là bậy bạ, vì máy tính có thể làm những việc rất phức tạp như nhận dạng ảnh, nhận dạng tiếng nói, tính toán các phép tính rất phức tạp để dẫn đường cho tên lửa đạn đạo, chơi cờ vua thắng đại kiện tướng thế giới, đánh cờ vây cũng bóp chết những người giỏi nhất thế giới ...etc... là những việc mà trẻ con hai tuổi không thể làm được.
Nhưng rất tiếc họ không hiểu những việc như nhận dạng này, nhận dạng kia chỉ là pattern matching, dùng statistic models, cứ match tỷ lệ cao thì nhận định là "chính nó", còn dẫn đường cho tên lửa hay lái xe trên đường trong điều kiện giới hạn thì chủ yếu là dựa vào thuật toán và data định sẵn. Những trò như cờ vua hay cờ vây là những trò chơi có thông tin đầy đủ, hữu hạn, nghĩa là tại mỗi thời điểm, số tình huống có thể xảy ra là hữu hạn, dù có là rất lớn thì vẫn hữu hạn. Mà những trò gọi là thông tin đầy đủ hữu hạn thì miễn là có khả năng tính toán lớn là đương nhiên thắng.
Còn nói về Trí tuệ Nhân tạo đúng như định nghĩa khoa học của nó, là:
- Reactive to the environment
- Proactive to achieve certain goals.
- Reasoning capability.
Tham khảo bài trước: Định nghĩa tri thức

3. Lịch sử phát triển của trí tuệ nhân tạo

3.1. giai đoạn sơ khai (1950s)
Trong những năm 1950, ngành khoa học máy tính đang trong giai đoạn sơ khai với các công cụ và thuật toán còn rất nguyên thủy. Đây là thời kỳ đầu tiên mà trí tuệ nhân tạo được formalize và bắt đầu nghiên cứu các phương pháp biểu diễn tri thức và lập luận logic.
3.2. giai đoạn ứng dụng thống kê và mạng Nơ-ron (1970s)
Vào thập kỷ 1970, AI bắt đầu áp dụng các phương pháp thống kê vào việc nhận dạng mẫu và mạng nơ-ron nhân tạo. Quan niệm rằng với đủ dữ liệu và máy tính mạnh, máy móc có thể đạt được trí tuệ nhân tạo đã hình thành, dẫn đến sự phát triển của các hệ thống chuyên gia và các thuật toán xử lý phân tán, xử lý song song.
3.3. Khủng hoảng AI và đột phá toán học (1990s)
Thập kỷ 1990 chứng kiến những đột phá về nền tảng toán học và biểu diễn tri thức, cùng với việc ra đời lý thuyết Agent và hệ thống đa tác nhân (Multi-Agent Systems). Tuy nhiên, khủng hoảng kinh tế và sự sụp đổ của bong bóng dot-com đã khiến nhiều nghiên cứu AI mất nguồn tài trợ và lụi tàn dần.
3.4. Thập kỷ 2010 và sự phục hồi của AI
Từ những năm 2010 đến nay, với sự phát triển mạnh mẽ của máy tính và dữ liệu lớn, AI đã tái phát triển mạnh mẽ, đặc biệt trong các lĩnh vực nhận dạng ảnh, nhận dạng tiếng nói và xử lý ngôn ngữ tự nhiên. Tuy nhiên, sự phụ thuộc quá mức vào các mô hình thống kê và dữ liệu lớn đã đặt ra những thách thức về khả năng đạt được trí tuệ nhân tạo thực sự theo định nghĩa khoa học.
<i>Một phút dành cho quảng cáo: </i><a href="https://clickbuy.com.vn/iphone-16-series">iPhone 16 Pro tại Clickbuy</a><i> trả góp 0%, bảo hành luôn rơi vỡ, vào nước. Các bạn tham tham khảo nhé!</i>
Một phút dành cho quảng cáo: iPhone 16 Pro tại Clickbuy trả góp 0%, bảo hành luôn rơi vỡ, vào nước. Các bạn tham tham khảo nhé!

4. Những thách thức hiện tại trong phát triển trí tuệ nhân tạo

4.1. Phương Pháp Biểu Diễn Tri Thức
Để đạt được trí tuệ nhân tạo thực sự, các hệ thống máy tính cần có khả năng hiểu ngữ nghĩa và ngữ cảnh của dữ liệu. Điều này đòi hỏi sự phát triển của các phương pháp biểu diễn tri thức và nền tảng toán học mới, khác biệt so với các phương pháp thống kê và số học hiện nay.
4.2. Sự phụ thuộc vào dữ liệu và thuật toán thống kê
Việc dựa vào lượng dữ liệu lớn và các thuật toán thống kê đã giúp AI đạt được nhiều thành tựu trong các lĩnh vực hẹp như nhận dạng mẫu và dự đoán. Tuy nhiên, điều này cũng giới hạn khả năng của AI trong việc thực hiện các nhiệm vụ đòi hỏi trí tuệ tổng quát và khả năng tư duy linh hoạt như con người.
4.3. Nguy cơ thông tin sai lệch và ảnh hưởng từ các nguồn tin không đáng tin cậy
Sự phát triển của các công cụ hỗ trợ học tập trực tuyến như Wikipedia và ChatGPT đã tạo ra những nguy cơ về việc lan truyền thông tin sai lệch. Việc thiếu kiến thức cơ bản để đánh giá và phân biệt thông tin đúng sai có thể dẫn đến những hiểu lầm nghiêm trọng về khả năng và giới hạn của trí tuệ nhân tạo.

5. Vai trò của kiến thức cơ bản trong phát triển trí tuệ nhân tạo

5.1. Khả năng phân biệt và đánh giá thông tin
Kiến thức cơ bản giúp người học và nhà nghiên cứu có khả năng phân biệt giữa thông tin chính xác và thông tin sai lệch, từ đó nâng cao chất lượng nghiên cứu và ứng dụng AI. Điều này đặc biệt quan trọng trong việc xây dựng các hệ thống AI có khả năng hiểu và xử lý thông tin một cách chính xác.
5.2. Ứng dụng kiến thức vào thực tiễn
Kiến thức cơ bản không chỉ hỗ trợ trong việc nghiên cứu mà còn trong việc ứng dụng AI vào các lĩnh vực thực tiễn như y tế, vận tải, và công nghiệp. Điều này đòi hỏi các hệ thống AI phải được xây dựng trên nền tảng kiến thức vững chắc và có khả năng tư duy logic sâu rộng.

6. Kết luận

Vì thế, khi nói đến AI, còn lâu máy tính mới làm gì được con người, mà rất có thể là không bao giờ.Còn những cái bây giờ có phải là AI không, xét theo định nghĩa của Alan Turing, thì máy tính thông minh hơn đa số bọn ngu xuẩn trên cái trái đất này từ lâu rồi.Nhưng theo định nghĩa khoa học, có formalize tử tế, thì con đường đi làm AI còn vời vợi lắm.