Có một tấm bảng tại Đại học Dartmouth có nội dung: "Trong tòa nhà này vào mùa hè năm 1956 John McCarthy (Đại học Dartmouth), Marvin L. Minsky (MIT), Nathaniel Rochester (IBM) và Claude Shannon (Phòng thí nghiệm Bell) đã tiến hành Dự án nghiên cứu mùa hè Dartmouth về trí tuệ nhân tạo. Lần đầu tiên sử dụng thuật ngữ "Trí tuệ nhân tạo". Thành lập trí tuệ nhân tạo như một ngành nghiên cứu "để tiến hành trên cơ sở phỏng đoán rằng mọi khía cạnh của học tập hoặc bất kỳ tính năng nào khác của trí thông minh về nguyên tắc có thể được mô tả chính xác đến mức một cỗ máy có thể được tạo ra để mô phỏng nó." Tấm bảng được treo vào năm 2006, kết hợp với một hội nghị kỷ niệm 50 năm Dự án Nghiên cứu Mùa hè, và nó lưu giữ bản hồ sơ tiêu chuẩn về lịch sử trí tuệ nhân tạo - rằng nó được sinh ra vào năm 1955 khi những cựu chiến binh của máy tính quân sự đầu tiên nộp đơn vào Quỹ Rockefeller cho một khoản tài trợ mùa hè để tài trợ cho hội thảo mà lần lượt định hình lĩnh vực này. Tấm bảng cũng trích dẫn phỏng đoán cốt lõi của đề xuất của họ: rằng hành vi thông minh của con người bao gồm các quá trình có thể được chính thức hóa và tái tạo trong một cỗ máy (McCarthy, Minksy, Rochester và Shannon, 1955).
medium.com
medium.com
Dựa trên các truyền thống sau chiến tranh của kỹ thuật hệ thống và điều khiển học, và rút ra từ lịch sử lâu dài của logic toán học và triết học nhằm vào các mô tả chính thức về suy nghĩ của con người, họ cho rằng các khả năng nhận thức có thể được trừu tượng hóa từ các hoạt động vật lý hỗ trợ của não. Do đó, về nguyên tắc, cái trước có thể được sao chép trong các tầng vật liệu khác nhau miễn là các quy tắc chính thức có thể được thực hiện ở đó (Kline, 2011, 2015). Hai trong số những người tham dự, Herbert Simon và Allen Newell, đã đề xuất cụ thể hơn rằng tâm trí con người và máy tính kỹ thuật số hiện đại là "các loài cùng chi", cụ thể là các hệ thống xử lý thông tin mang tính biểu tượng; cả hai đều lấy thông tin biểu tượng làm đầu vào, thao túng nó theo một tập hợp các quy tắc chính thức, và làm như vậy có thể giải quyết vấn đề, xây dựng phán đoán và đưa ra quyết định (Crowther-Heyck, 2008; Heyck, 2005; Newell & Simon, 1972). Sau hội thảo năm 1956, điều này đã trở thành cách thống trị tiếp cận , và các nhà nghiên cứu trí tuệ nhân tạo theo đó đặt ra để xác định các quá trình chính thức cấu thành hành vi thông minh của con người trong chẩn đoán y tế, cờ vua, toán học, xử lý ngôn ngữ, v.v., với hy vọng tái tạo hành vi đó bằng các phương tiện tự động.
Tuy nhiên, với sự tràn ngập, trí tuệ nhân tạo ngày nay chỉ giống với cách tiếp cận mang tính biểu tượng này trên danh nghĩa. Hầu hết các cam kết và cách tiếp cận chính đã bị bỏ rơi trong suốt thế kỷ XX. Có lẽ đáng chú ý nhất, trí thông minh của con người là ví dụ trung tâm mà xung quanh đó các nỗ lực tự động hóa ban đầu được định hướng. Mục tiêu là tái tạo hành vi thông minh của con người trong máy móc bằng cách khám phá các quy trình hoạt động trong trí thông minh của chính chúng ta để chúng có thể được tự động hóa. Tuy nhiên, ngày nay, hầu hết các nhà nghiên cứu muốn thiết kế các hệ thống tự động hoạt động tốt trong các lĩnh vực vấn đề phức tạp bằng bất kỳ phương tiện nào, thay vì bằng các phương tiện giống như con người (Floridi, 2016). Trên thực tế, nhiều cách tiếp cận mạnh mẽ ngày nay đặt ra một cách có chủ ý để bỏ qua hành vi của con người, như trong trường hợp các hệ thống chơi trò chơi tự động phát triển các chiến lược ấn tượng hoàn toàn bằng cách chỉ chơi với chính họ, theo dõi những động thái nào có nhiều khả năng tạo ra chiến thắng, thay vì bằng cách triển khai heuristics(phương pháp suy nghiệm) lấy cảm hứng từ con người hoặc đào tạo thông qua chơi với các chuyên gia con người (Pollack & Blair, 1997; Tesauro, 1995). Rằng dự án cốt lõi có thể đã thay đổi đáng kể làm nổi bật thực tế rằng những gì được coi là trí thông minh là một mục tiêu di chuyển trong lịch sử trí tuệ nhân tạo.
Các cộng đồng nghiên cứu đã chọn ra các hành vi và quy trình khác nhau là cấu thành trí thông minh thực sự cũng được nhấn mạnh trong chính lịch sử ban đầu. Các tài liệu lịch sử tiêu chuẩn về trí tuệ nhân tạo thường phóng đại tầm quan trọng của hội thảo Dartmouth và cách tiếp cận mang tính biểu tượng liên quan đến nó. Thật vậy, ngay cả theo chính những người tham gia, hội thảo là một cái gì đó của một sự thất vọng. McCarthy nhớ lại rằng "bất cứ ai ở đó đều khá bướng bỉnh trong việc theo đuổi những ý tưởng mà anh ta có trước khi anh ta đến và kể cả ở đó, theo như tôi có thể thấy, chẳng có bất kỳ sự trao đổi ý tưởng thực sự nào" (McCorduck, 2004, tr. 114). Lời than thở của McCarthy cũng gợi ý về thực tế là các phương pháp tiếp cận nghiên cứu trí tuệ nhân tạo có nhiều khía cạnh hơn là về "AI lỗi thời vẫn tốt" (như trí tuệ nhân tạo mang tính biểu tượng được đặt tên vào những năm 1980) có thể gợi ý.
Expert system (examnightslive.wordpress.com)
Expert system (examnightslive.wordpress.com)
Ví dụ, những người ủng hộ một lĩnh vực được gọi là 'hệ thống chuyên gia(expert system)' đã bác bỏ tiền đề rằng trí thông minh của con người chỉ dựa trên lý luận ràng buộc quy tắc. Họ tin rằng, một phần vì sự thất vọng nhất quán đối với cách tiếp cận đó, rằng trí thông minh của con người phụ thuộc vào những gì các chuyên gia biết chứ không chỉ là cách họ nghĩ (Brock, 2018; Collins, 1990; Feigenbaum, 1977; Forsythe, 2002). Edward Feigenbaum (1977), nhà khoa học máy tính có trụ sở tại Stanford, người đã đặt tên cho lĩnh vực này, đã đề xuất rằng:
Chúng ta phải đưa ra giả thuyết từ kinh nghiệm của chúng ta cho đến nay rằng sức mạnh giải quyết vấn đề được thể hiện trong hiệu suất của một tác nhân của trí thông minh chủ yếu là kết quả của kiến thức của chuyên gia được sử dụng bằng tác nhân , và chỉ liên quan rất thứ yếu đến tính tổng quát và sức mạnh của phương pháp suy luận được sử dụng. Các tác nhân của chúng ta phải giàu kiến thức, ngay cả khi chúng nghèo về phương pháp. (tr. 3, nhấn mạnh thêm)
Trong cách tiếp cận này, 'kỹ sư tri thức (knowledge engineer)' sẽ phỏng vấn các chuyên gia con người, quan sát thực tiễn giải quyết vấn đề của họ, v.v., với hy vọng gợi ra và làm rõ những gì họ biết để nó có thể được mã hóa để sử dụng tự động (Feigenbaum, 1977, tr. 4). Các hệ thống chuyên gia đã đưa ra một lời giải thích khác về trí thông minh của con người và lý thuyết kiến thức của riêng chúng, tiết lộ rằng cả hai đều là mục tiêu di chuyển trong nghiên cứu ban đầu này.
Vẫn còn những người khác, nhiều người trong số họ quan tâm đến nhận dạng mẫu tự động, tập trung vào các nỗ lực không phải để mô phỏng tâm trí con người mà để tái tạo nhân tạo các khớp thần kinh của não trong 'mạng lưới thần kinh nhân tạo'. Bản thân các mạng lưới thần kinh có từ những năm 1940 và 1950, và ban đầu có nghĩa là mô phỏng các khớp thần kinh não bằng các phương tiện kỹ thuật số (Jones, 2018). Những mạng lưới thần kinh này, bây giờ phần lớn bị tước bỏ tất cả trừ mối quan hệ lướt qua nhất với bộ não con người, đang hoạt động trong nhiều hệ thống máy học (Machine Learning) mạnh mẽ ngày nay, nhấn mạnh một lần nữa tính chất protean (Hay thay đổi) của 'hành vi thông minh' trong lịch sử này.
Do đó, lịch sử của trí tuệ nhân tạo không chỉ là lịch sử của những nỗ lực máy móc để sao chép hoặc thay thế một số khái niệm tĩnh về trí thông minh của con người, mà còn là một sự thay đổi về cách chúng ta nghĩ về chính trí thông minh. Về mặt đó, trí tuệ nhân tạo không được sinh ra tại Dartmouth vào năm 1955, như bản hồ sơ tiêu chuẩn sẽ khiến chúng ta tin tưởng, hơn là tham gia vào lịch sử lâu dài về những gì được coi là trí thông minh và những gì được coi là nhân tạo. Ví dụ, các bài tiểu luận trong Phil Husbands, Owen Holland, and Michael Wheeler's The Mechanical Mind in History (2008) đặt vị trí thông tin tượng trưng vào cuối của một lịch sử lâu dài của các lý thuyết cơ học về tâm trí.
Trí tuệ nhân tạo thuộc về lịch sử trí thông minh của con người, theo những cách làm phức tạp các múc đích luận(Teleology - đại khái là các sự vật, hiện tượng sinh ra và tồn tại có mục đích cuối cùng) trong đó AI biểu tượng xuất hiện một cách tự nhiên và chắc chắn từ những nỗ lực qua nhiều thế kỷ để giảm lý luận của con người thành một chủ nghĩa hình thức logic. Các khả năng nhận thức của con người đã được lý thuyết hóa, phân chia, có giá trị và mất giá theo những cách khác nhau vào những thời điểm khác nhau. Ví dụ, trong thế kỷ 18 và đầu thế kỷ 19, các tính toán số học phức tạp có liên quan đến thiên tài toán học điêu luyện (Daston, 1994). Các nhà toán học nổi tiếng như Gauss và Laplace đã được tôn vinh trong thời gian của họ về "lightning arithmetic" (Các phương pháp toán học giải quyết một cách nhanh chóng) của họ. Nhưng đến giữa thế kỷ XIX, tính toán phần lớn đã mất đi mối liên hệ của nó với thiên tài, và đã "trôi dạt từ trí thông minh của hàng xóm sang một cái gì đó rất giống với sự đối lập của nó" (Daston, 1994, tr. 186). Tính toán đã bị giáng cấp xuống "chỉ đơn thuần là máy móc" hoặc "tự động", không đòi hỏi sự hiện diện thực sự của tâm trí hoặc sự chú ý của nhận thức. Nhà sử học Lorraine Daston theo dõi sự thay đổi này trong những nỗ lực của nhà toán học người Pháp Gaspard de Prony, người đã áp dụng các nguyên tắc của Adam Smith về phân công lao động để tính toán toán học, chia nhỏ các phép tính phức tạp thành các hoạt động số học nhỏ và đơn giản có thể được thực hiện (thực sự được thực hiện tốt nhất) bởi những người thất học. Việc "deskilling" (giảm mức độ kỹ năng cần thiết để thực hiện) tính toán và sự đi xuống của khả năng nhận thức này đã dẫn đến một sự thay đổi trong nhân khẩu học của máy tính; một khi tầm nhìn của triết học và toán học, tính toán đã trở thành lĩnh vực của những người lao động không có kỹ năng và của phụ nữ trong thế kỷ 19. Với số lượng lớn như vậy, những "máy tính của con người" này (thực sự, trong hầu hết lịch sử của nó, công việc 'máy tính' đề cập đến một người chứ không phải là một cỗ máy), có thể thực hiện các tính toán phức tạp bằng cách tổng hợp toán học trong lao động của họ. Một khi bị giáng cấp xuống lĩnh vực "chỉ đơn thuần là cơ học", tính toán cũng đã chín muồi cho sự tự động hóa máy móc, và các nhà toán học như Charles Babbage và Charles Thomas de Colmar bắt đầu thiết kế máy móc có thể làm cho lao động về tinh thần so với những gì tự động hóa nhà máy đã làm cho lao động về thể chất (Schaffer, 1994). Daston (1994) sử dụng sự biến đổi lịch sử này để lập luận rằng "trí thông minh có nghĩa là gì và - vẫn còn nói nhiều hơn, ai đã thay đổi nó song song với ý nghĩa và đối tượng của tính toán" (tr. 186). Con người, và đặc biệt là phụ nữ, máy tính đã được sử dụng tốt vào thế kỷ 20, đặc biệt là bởi các chính phủ Anh và Mỹ, và nhiều người cũng trở thành lập trình viên của các máy tính kỹ thuật số đầu tiên mà cuối cùng sẽ thay thế chúng, làm lại một lần nữa quan điểm về nền kinh tế lao động và trí thông minh (Abbate, 2012; Ensmenger, 2010; Grier, 2007; Hicks, 2018; Ánh sáng, 1999).
Lịch sử này cũng chỉ ra thực tế là những nỗ lực tạo ra hành vi thông minh trong máy móc thường chạy song song với những nỗ lực làm cho hành vi của con người giống như máy móc hơn. Từ việc kỷ luật các cơ quan công nhân nhà máy thế kỷ 19 bằng máy đo lường đến việc thực hiện tự động và kết luận không suy nghĩ của toán học mà De Prony tìm kiếm trong máy tính của con người, những nỗ lực tự động hóa thường song song với việc kỷ luật tâm trí và cơ thể con người để thực hiện hiệu quả các nhiệm vụ. Thật vậy, Harry Collins đã lập luận rằng máy móc chỉ có thể xuất hiện thông minh trong các lĩnh vực mà mọi người đã tự kỷ luật mình để đủ giống như máy móc, như trong trường hợp tính toán số (Collins, 1992). Quan điểm lịch sử này cũng mời gọi xem xét lại trí tuệ nhân tạo thế kỷ 21. Như nhà nhân chủng học Lucy Suchman (2006) đã đề xuất, trí tuệ nhân tạo "hoạt động như một tác nhân tiết lộ mạnh mẽ cho các giả định về con người" (tr. 226). Những hành vi nào được chọn làm ví dụ về trí thông minh để được nhân rộng bởi máy móc? Sự nhận thức trong lao động của ai được đánh giá cao và mất giá trị, bị thay thế hoặc thay thế bởi các nền kinh tế mới của trí thông minh bao quanh các máy tính kỹ thuật số hiện đại hoặc các hệ thống học máy mạnh mẽ?
Trên thực tế, các trí tuệ nhân tạo mạnh mẽ và có lợi nhuận nhất mà chúng ta đã tạo ra - những máy học (Machine Learning) ngày nay thể hiện một loạt các hành vi thông minh khá hạn chế. Sự áp đảo các hệ thống học máy được định hướng theo một nhiệm vụ cụ thể: đưa ra dự đoán chính xác. Dựa trên các kỹ thuật thống kê có từ giữa thế kỷ 20, các nhà lý thuyết máy học nhằm mục đích phát triển các thuật toán, họ lấy một lượng dữ liệu khổng lồ làm đầu vào cho mạng lưới thần kinh và đưa ra một quy tắc dự đoán hoặc phân loại cho miền có liên quan trong thời gian đa thức (Valiant, 1984; Wald, 1947). Với trọng tâm cụ thể này và lịch sử cụ thể, nhiều nhà lý thuyết máy học sẽ không đặt công việc của họ trong trí tuệ nhân tạo theo nghĩa truyền thống của thuật ngữ này. Tuy nhiên, có lẽ trớ trêu thay, các hệ thống máy học được quảng cáo là trí tuệ nhân tạo bởi nhiều tổ chức, nhà phát triển và tập đoàn công cộng phải đối mặt, mặc dù mục tiêu ban đầu - để mô phỏng hành vi thông minh của con người - không phải là một phần của máy học kể từ khi các mạng lưới thần kinh bị tước bỏ tất cả nhưng vẫn có sự liên quan tối thiểu nhất đến bộ não con người trong những năm 1960 (Jones, 2018). Cái tên đã bị mắc kẹt, mặc dù các định nghĩa hoàn toàn khác nhau về 'trí thông minh' và 'nhân tạo' tại nơi làm việc ở đó.
Deep Blue
Deep Blue
Mặc dù các hệ thống máy học đã được chứng minh là công cụ dự đoán cực kỳ mạnh mẽ, "trí tuệ nhân tạo" mới cũng gây tranh cãi. Năm 1997, John McCarthy đã viết một bài phê bình về DeepBlue sau chiến thắng trước Kasparov. DeepBlue đã không sử dụng các mạng thần kinh, nhưng nó dự đoán một số cuộc tranh luận xung quanh máy học bằng cách triển khai một cách tiếp cận vũ phu mà sẽ không có sẵn cho player của con người. McCarthy than thở rằng khuôn mẫu của con người đã không dựa trên thiết kế của nó - ông không muốn một chương trình có thể chơi cờ tốt bằng bất kỳ phương tiện nào, ông muốn giải trí thông minh của con người bằng các phương tiện tự động (1997). Những lời chỉ trích chống lại trí tuệ nhân tạo vô nhân đạo vẫn tiếp tục cho đến ngày nay. Một số, như Noam Chomsky, đã tìm thấy sự nhấn mạnh vào độ chính xác dự đoán trong máy học có vấn đề và không thỏa mãn (Norvig, 2011). Ông không tin rằng các nhà khoa học nên từ bỏ mối quan tâm của họ bằng sự hiểu biết và giải thích để đổi lấy dự đoán dựa trên dữ liệu mạnh mẽ. Những người khác, như Virginia Eubanks, Julia Angwin, Safiya Noble và Cathy O'Neil, đã lưu ý cách dự đoán của máy học có thể giới thiệu các quyết định thực tiễn có vấn đề về đạo đức và xã hội và tái tạo hoặc cố thủ sự thiên vị và bất bình đẳng (Angwin, 2016; Eubanks, 2017; Cao quý, 2018; O'Neil, 2016). Cả hai bài phê bình đều rút ra một phần từ thực tế, đặc biệt là trong trường hợp các hệ thống không thể giải thích được, các mô hình máy học có thể dự đoán rằng một cái gì đó là một cách, nhưng không đưa ra bất kỳ lời giải thích nào về lý do tại sao dùng cách này, hạn chế các hình thức kiến thức, hiểu biết và trách nhiệm giải trình mà chúng đủ khả năng. Một số người lo lắng rằng trí tuệ nhân tạo ngày nay không bắt đầu với trí thông minh của con người như một mô hình, nhưng theo một nghĩa nào đó, nó cũng có thể không kết thúc với trí thông minh của con người.
Không có một câu chuyện đơn giản về trí tuệ nhân tạo từ những năm 1950 cho đến ngày nay. Tuy nhiên, một điều quan trọng là tấm gương của con người, một khi là chỉ dẫn và động lực cho sự nghiên cứu trí tuệ nhân tạo trong nhiều hình thức sau chiến tranh, phần lớn đã bị thay thế khỏi lĩnh vực này, và do đó cũng có những quan điểm nhất định về những gì chúng ta muốn biết và làm với máy móc thông minh.

Tham khảo

Abbate, J. (2017). Recoding Gender: Women’s Changing Participation in Computing. Cambridge, MA: MIT Press.
Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine Bias. Pro Publica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
Brock, D. (2018). Learning from Artificial Intelligence’s Previous Awakenings: The History of Expert Systems. AI Magazine 39(3), 3-15.
Collins, H. (1992). Artificial Experts: Social Knowledge and Intelligent Machines. Cambridge, MA: MIT Press.
Crowther-Heyck, H. (2008). Defining the Computer: Herbert Simon and the Bureaucratic Mind - Part 1. IEEE Annals of the History of Computing 30(2), 42-51.
Daston, L. (1994). Enlightenment Calculations. Critical Inquiry 21(1), 182-202.
Ensmenger, N. (2010). The Computer Boys Take Over: Computers, Programmers, and the Politics of Technical Expertise. Cambridge, MA: MIT Press.
Eubanks, V. (2017). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: Macmillan.
Feigenbaum, E. (1977). The Art of Artificial Intelligence: Themes and Case Studies of Knowledge Engineering. Stanford Heuristics Programming Project Memo HPP-77-25.
Floridi, L. (2016). The 4th revolutionL how the info sphere is reshaping human reality. Oxford: Oxford University Press.
Forsythe, D. (2002). Studying those Who Study Us: An Anthropologist in the World of Artificial Intelligence. Sanford, CA: Stanford University Press.
Grier, D. (2007). When Computers Were Human. Princeton, NJ: Princeton University Press.
Heyck, H. (2005). Herbert Simon: The Bounds of Reason in Modern America. Baltimore, ML: Johns Hopkins University Press.
Hicks, Marie. (2017). Programmed Inequality: How Britain Discarded Women Technologists and Lost Its Edge in Computing. Cambridge, MA: MIT Press.
Husbands, P., Holland, O., Wheeler, M, eds. (2008). The Mechanical Mind in History. Cambridge, MA: MIT Press.
Jones, M. (2018). How We Became Instrumentalists (Again): Data Positivism since World War II. Historical Studies of the Natural Sciences 48(5), 673-684.
Kline, R. (2011). Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence. IEEE Annals of the History of Computing 33(4), 5-16.
Kline, R. (2015). The Cybernetics Moment: Or Why We Call Our Age the Information Age. Baltimore, ML: Johns Hopkins University Press.
Light, J. 1999. When Computers were Women. Technology and Culture 40(3), 455-483.
McCarthy, J., Minsky, M., Shannon, C. E., Rochester, N., & Dartmouth College. (1955). A proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
McCarthy, J. (1997). AI as Sport. Science 276(5318), 1518-1519.
McCorduck, P. Machines Who Think. Natick, MA: A K Peters.
Newell, A., & Simon, H. (1972). Human Problem Solving. Oxford, England: Prentice-Hall.
Noble, S. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York, NY: New York University Press.
Norvig, P. (2011). On Chomsky and the Two Cultures of Statistical Learning. http://norvig.com/chomsky.html.
O’Niel, C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York, NY: Broadway Books.
Schaffer, S. (1994). Babbage’s Intelligence: Calculating Engines and the Factory System. Critical Inquiry 21(1), 203-227.
Suchman, L. (2006). Human-Machine Reconfigurations. Cambridge, UK: University of Cambridge Press.
Tesauro, G. (1995). Temporal Difference Learning and TD-Gammon. Communications of the ACM 38(3), 58-68.
Valiant, L. (1984). A Theory of the Learnable. Artificial Intelligence and Language Processing 27(11): 1134-1142.
Wald, A. (1947). Sequential Analysis. New York: John Wiley and Sons.
Nguồn: