Tác giả: MarcAndreessen, người sáng lập a16z; biên dịch: Jinse Finance cryptonaitive&ChatGPT
Thời đại của trí tuệ nhân tạo đã đến, và mọi người đang hoang mang về nó.
May mắn thay, tôi ở đây để mang đến một tin tốt lành: AI sẽ không phá hủy thế giới, mà thực tế nó có thể cứu thế giới.
Đầu tiên, giới thiệu ngắn gọn về trí tuệ nhân tạo là gì: quá trình áp dụng toán học và mã phần mềm để dạy máy tính cách hiểu, tổng hợp và tạo ra kiến thức, giống như con người. Trí tuệ nhân tạo là một chương trình giống như bất kỳ chương trình máy tính nào khác—nó chạy, nhận đầu vào, xử lý và tạo đầu ra. Đầu ra của trí tuệ nhân tạo rất hữu ích trong nhiều lĩnh vực khác nhau, từ lập trình đến y học, luật và nghệ thuật sáng tạo. Nó được sở hữu và kiểm soát bởi con người, giống như bất kỳ công nghệ nào khác.
Mô tả ngắn về trí tuệ nhân tạo: nó không giống như trong phim khi phần mềm giết người và người máy đột nhiên sống lại và quyết định tàn sát con người hoặc phá hủy mọi thứ.
Mô tả ngắn gọn hơn cho trí tuệ nhân tạo: đó có thể là một cách để làm cho mọi thứ chúng ta quan tâm trở nên tốt hơn.
**Tại sao AI có thể làm mọi thứ chúng ta quan tâm trở nên tốt hơn? **
Một kết luận chính của nhiều nghiên cứu được thực hiện trong các ngành khoa học xã hội trong nhiều năm là trí thông minh của con người có thể mang lại những cải tiến đáng kể trong mọi lĩnh vực của cuộc sống. Những người thông minh hơn đạt được kết quả tốt hơn trong hầu hết mọi lĩnh vực: thành tích học tập, hiệu suất công việc, tình trạng nghề nghiệp, thu nhập, khả năng sáng tạo, sức khỏe thể chất, tuổi thọ, học các kỹ năng mới, xử lý các nhiệm vụ phức tạp, khả năng lãnh đạo, thành công trong kinh doanh, giải quyết xung đột, đọc hiểu, ra quyết định tài chính , Hiểu quan điểm của người khác, Nghệ thuật sáng tạo, Kết quả nuôi dạy con cái và Sự hài lòng trong cuộc sống.
Hơn nữa, trí tuệ con người là đòn bẩy mà chúng ta đã sử dụng hàng thiên niên kỷ để tạo ra thế giới của mình: khoa học, công nghệ, toán học, vật lý, hóa học, y học, năng lượng, kiến trúc, giao thông vận tải, truyền thông, nghệ thuật, âm nhạc, văn hóa, triết học, đạo đức và luân lý. Nếu không áp dụng trí thông minh trong tất cả các lĩnh vực này, chúng ta có thể vẫn đang sống trong những túp lều bùn, vật lộn để tồn tại trong cảnh nghèo đói của nghề nông. Thay vào đó, chúng ta đã sử dụng trí thông minh để cải thiện mức sống của mình khoảng 10.000 lần trong 4.000 năm qua.
Trí tuệ nhân tạo mang đến cho chúng ta cơ hội tạo ra nhiều kết quả khác nhau của trí thông minh—từ việc tạo ra các loại thuốc mới để giải quyết vấn đề biến đổi khí hậu cho đến các công nghệ cho phép du hành giữa các vì sao—tốt hơn nhiều trong tương lai bằng cách tăng cường sâu sắc trí thông minh của con người.
Quá trình trí tuệ nhân tạo tăng cường trí thông minh của con người đã bắt đầu - trí tuệ nhân tạo đã xuất hiện xung quanh chúng ta dưới nhiều hình thức khác nhau, chẳng hạn như các hệ thống điều khiển máy tính khác nhau, và giờ đây đã có trí tuệ nhân tạo mô hình ngôn ngữ quy mô lớn như ChatGPT, và từ giờ trở đi, nó sẽ Tăng tốc nhanh chóng - nếu chúng ta cho phép.
Trong thời đại trí tuệ nhân tạo mới của chúng ta:
• Mỗi đứa trẻ sẽ có một gia sư AI với sự kiên nhẫn vô hạn, sự đồng cảm vô hạn, kiến thức vô hạn và sự giúp đỡ vô tận. Người cố vấn AI này sẽ ở bên cạnh mỗi đứa trẻ khi chúng lớn lên, giúp chúng phát huy hết khả năng của mình và mang đến tình yêu thương vô bờ bến.
• Mọi người sẽ có một trợ lý/huấn luyện viên/người cố vấn/người huấn luyện/cố vấn/nhà trị liệu AI với sự kiên nhẫn vô hạn, lòng trắc ẩn vô hạn, kiến thức vô tận và sự giúp đỡ vô tận. Trợ lý AI này sẽ ở đó trong suốt các cơ hội và thách thức của cuộc sống, tối đa hóa kết quả của mọi người.
• Mỗi nhà khoa học sẽ có một trợ lý/cộng tác viên/đối tác AI có khả năng mở rộng đáng kể phạm vi nghiên cứu khoa học và thành tựu của họ. Thế giới của mọi nghệ sĩ, kỹ sư, doanh nhân, bác sĩ và nhân viên y tế cũng vậy.
• Mọi nhà lãnh đạo—CEO, quan chức chính phủ, chủ tịch tổ chức phi lợi nhuận, huấn luyện viên thể thao, giáo viên—cũng sẽ làm như vậy. Tác động khuếch đại của việc các nhà lãnh đạo ra quyết định tốt hơn là rất lớn, vì vậy việc tăng cường trí thông minh có lẽ là quan trọng nhất.
• Tăng trưởng năng suất trong toàn bộ nền kinh tế sẽ tăng tốc đáng kể, thúc đẩy tăng trưởng kinh tế, tạo ra các ngành công nghiệp mới, tạo việc làm mới và tăng trưởng tiền lương, dẫn đến một kỷ nguyên thịnh vượng vật chất mới trên Trái đất.
• Những đột phá khoa học, công nghệ mới và thuốc mới sẽ mở rộng đáng kể khi AI giúp chúng ta tiếp tục giải mã các quy luật tự nhiên và sử dụng chúng vì lợi ích của chúng ta.
• Nghệ thuật sáng tạo sẽ bước vào thời kỳ hoàng kim khi các nghệ sĩ, nhạc sĩ, nhà văn và nhà làm phim được tăng cường AI có thể hiện thực hóa tầm nhìn của họ nhanh hơn và trên quy mô lớn hơn bao giờ hết.
• Tôi thậm chí còn nghĩ rằng AI sẽ cải thiện chiến tranh, khi cần thiết, bằng cách giảm đáng kể tỷ lệ tử vong trong chiến tranh. Mọi cuộc chiến đều được đặc trưng bởi các nhà lãnh đạo con người rất hạn chế đưa ra những quyết định tồi tệ dưới áp lực cực độ và với thông tin hạn chế. Các chỉ huy quân sự và các nhà lãnh đạo chính trị giờ đây sẽ có các cố vấn AI để giúp họ đưa ra các quyết định chiến lược và chiến thuật tốt hơn nhằm giảm thiểu rủi ro, sai sót và đổ máu không cần thiết.
• Nói tóm lại, bất cứ điều gì con người làm ngày nay với trí thông minh tự nhiên của họ đều có thể được thực hiện tốt hơn với AI và chúng ta sẽ có thể đón nhận những thách thức mới không thể giải quyết nếu không có AI, từ việc chữa khỏi mọi bệnh tật cho đến du hành giữa các vì sao.
• Và nó không chỉ là về trí thông minh! Có lẽ chất lượng bị đánh giá thấp nhất của AI là sự tiếp xúc của con người với nó. Nghệ thuật AI mang đến cho những người thiếu kỹ năng kỹ thuật quyền tự do sáng tạo và chia sẻ ý tưởng nghệ thuật của họ. Nói chuyện với một người bạn AI đồng cảm thực sự có thể cải thiện khả năng đối phó với nghịch cảnh của họ. Và, so với con người, các chatbot y tế AI đã đồng cảm hơn. Trí tuệ nhân tạo với sự kiên nhẫn và lòng trắc ẩn vô hạn sẽ biến thế giới trở nên ấm áp và thân thiện hơn.
Cổ phần ở đây rất cao và cơ hội rất lớn. AI hoàn toàn có thể là thứ quan trọng nhất và tốt nhất mà nền văn minh của chúng ta từng thấy, ít nhất là ngang bằng với điện và vi mạch, và thậm chí có thể tốt hơn chúng.
Nghĩa vụ đạo đức của chúng ta đối với bản thân, con cái và tương lai của chúng ta là phát triển và phổ biến trí tuệ nhân tạo — đồng thời tránh xa những rủi ro mà chúng ta nên lo sợ.
Chúng ta xứng đáng được sống trong một thế giới tốt đẹp hơn với trí tuệ nhân tạo và giờ đây chúng ta có thể biến điều đó thành hiện thực.
** Vì vậy, tại sao hoảng loạn? **
Trái ngược với quan điểm tích cực này, cuộc trò chuyện công khai hiện tại về AI đầy rẫy sự hoảng loạn và hoang tưởng.
Chúng tôi nghe đủ loại tuyên bố rằng AI sẽ hủy diệt tất cả chúng ta, phá vỡ xã hội của chúng ta, lấy đi công việc của chúng ta, gây ra sự bất bình đẳng lớn và cho phép những kẻ xấu làm những điều khủng khiếp.
Tại sao lại có sự khác biệt này trong các kết quả tiềm năng, từ gần như không tưởng đến lạc hậu khủng khiếp?
**Trong lịch sử, mọi công nghệ mới quan trọng, từ bóng đèn đến ô tô, từ đài phát thanh đến Internet, đều gây ra sự hoang mang về đạo đức—một sự lây lan xã hội khiến mọi người tin rằng công nghệ mới sẽ hủy diệt thế giới hoặc xã hội, hoặc Cả hai sẽ diệt vong. **Những người tốt tại Archives of Bissimism đã ghi lại những giai đoạn hoảng loạn đạo đức do công nghệ thúc đẩy trong nhiều thập kỷ này; lịch sử của họ cho thấy rõ khuôn mẫu này. Hóa ra, sự hoảng loạn hiện nay đối với trí tuệ nhân tạo thậm chí không phải là lần đầu tiên.
Ngay bây giờ, thực sự có nhiều công nghệ mới dẫn đến những kết quả không mong muốn—thường là những công nghệ mang lại lợi ích to lớn cho phúc lợi của chúng ta. Vì vậy, không phải sự hiện diện của một sự hoảng loạn về đạo đức có nghĩa là không có gì phải lo lắng.
Nhưng ** sự hoảng loạn về đạo đức vốn dĩ là phi lý - nó phóng đại những gì có thể là mối quan tâm chính đáng đến mức cuồng loạn, trớ trêu thay, lại khiến chúng ta khó đối mặt với những vấn đề thực sự nghiêm trọng hơn. **
Ngay bây giờ chúng ta đang trong tình trạng hoảng loạn về mặt đạo đức đối với AI.
Sự hoảng loạn về mặt đạo đức này đã bị nhiều bên lợi dụng để thúc đẩy hành động chính sách – thúc đẩy các hạn chế, quy định và luật mới về AI. Những diễn viên này đang công khai lên tiếng về sự nguy hiểm của trí tuệ nhân tạo với kịch tính cực đoan—chúng nuôi dưỡng và tiếp tục thúc đẩy sự hoảng loạn về đạo đức—tất cả đều thể hiện mình là những người bảo vệ lợi ích chung một cách vô vị lợi.
Nhưng họ có thực sự như thế này không?
Họ đúng hay sai?
** AI Baptists và Moonshiners**
Các nhà kinh tế đã quan sát thấy một mô hình lâu đời giữa các phong trào cải cách như vậy. Những người tham gia vào các phong trào này có thể được chia thành hai loại - "Người rửa tội" và "người buôn lậu", dựa trên ví dụ lịch sử về Cấm rượu ở Hoa Kỳ vào những năm 1920:
• "Những người theo chủ nghĩa rửa tội" là những nhà cải cách xã hội có niềm tin thực sự, những người tin tưởng sâu sắc và đầy cảm xúc (mặc dù không nhất thiết là về mặt trí tuệ) rằng cần có những hạn chế, quy định và luật mới để ngăn chặn thảm họa xã hội. Trong trường hợp Cấm rượu, những diễn viên này thường là những Cơ đốc nhân chân thành, những người tin rằng rượu đang phá hủy kết cấu đạo đức của xã hội. Đối với rủi ro AI, những tác nhân này là những người thực sự tin rằng AI gây ra rủi ro tồn tại ở dạng này hay dạng khác - nếu bạn buộc họ vào máy phát hiện nói dối, họ thực sự làm như vậy.
• Những kẻ buôn lậu là những kẻ cơ hội tư lợi, những người được hưởng lợi từ các hạn chế, quy định và luật mới khi chúng được thực hiện và tự bảo vệ mình khỏi các đối thủ cạnh tranh. Đối với Cấm, đây là những kẻ buôn lậu đã kiếm được khối tài sản khổng lồ khi bán rượu bất hợp pháp vào thời điểm việc bán rượu hợp pháp bị cấm. Đối với rủi ro AI, đây là những giám đốc điều hành có thể kiếm được nhiều tiền hơn nếu họ xây dựng một loại cartel gồm các nhà cung cấp AI được chính phủ hậu thuẫn, được bảo vệ khỏi các công ty khởi nghiệp và cạnh tranh nguồn mở. thất bại" ngân hàng.
Một người hoài nghi có thể lập luận rằng một số người theo đạo Báp-tít bề ngoài cũng là những kẻ buôn lậu — đặc biệt là những người có trường đại học, tổ chức tư vấn, nhóm hoạt động và cơ quan truyền thông trả lương hoặc nhận tài trợ để tấn công AI. Nếu bạn được trả lương hoặc trợ cấp để gây ra sự hoảng loạn về AI, bạn có thể là một kẻ buôn lậu.
Vấn đề với bootleggers là họ giành chiến thắng. Những người theo đạo Báp-tít là những nhà tư tưởng ngây thơ và những người buôn lậu là những người điều hành hoài nghi, vì vậy kết quả của các phong trào cải cách như vậy thường là những người buôn lậu có được thứ họ muốn - kiểm soát theo quy định, bảo vệ khỏi cạnh tranh, hình thành độc quyền, trong khi những người theo đạo Báp-tít bối rối trước động lực cải thiện xã hội.
Chúng ta vừa trải qua một ví dụ gây sốc – cải cách ngân hàng sau cuộc khủng hoảng tài chính toàn cầu năm 2008. Những người theo đạo Báp-tít nói với chúng tôi rằng chúng tôi cần các luật và quy định mới để phá vỡ các ngân hàng "quá lớn để sụp đổ" để ngăn chặn một cuộc khủng hoảng tương tự xảy ra lần nữa. Vì vậy, Quốc hội Hoa Kỳ đã thông qua Đạo luật Dodd-Frank năm 2010, được quảng cáo là đáp ứng các mục tiêu của Baptists, nhưng thực tế đã bị lợi dụng bởi những kẻ buôn lậu - các ngân hàng lớn. Kết quả cuối cùng là các ngân hàng quá lớn để sụp đổ trong năm 2008 giờ thậm chí còn lớn hơn.
Vì vậy, trong thực tế, ngay cả khi những người Báp-tít chân thành, ngay cả khi những người Báp-tít đúng, họ sẽ bị những kẻ buôn lậu xảo quyệt và tham lam lợi dụng để thu lợi cho mình.
Đây chính xác là những gì hiện đang thúc đẩy quy định AI.
Tuy nhiên, nó không đủ để xác định các tác nhân và đổ lỗi cho động cơ của họ. Chúng ta nên đánh giá nó dựa trên lập luận của những người theo đạo Báp-tít và những kẻ buôn rượu lậu.
**Rủi ro AI 1: Trí tuệ nhân tạo sẽ giết chúng ta? **
**Nguy cơ ngày tận thế đầu tiên và sớm nhất của AI là nỗi sợ hãi rằng AI sẽ quyết định giết loài người. **
Nỗi sợ hãi của chúng ta rằng chính công nghệ sẽ trỗi dậy và hủy diệt chúng ta đã ăn sâu vào văn hóa của chúng ta. Người Hy Lạp thể hiện nỗi sợ hãi này qua thần thoại Prometheus - Prometheus mang đến cho loài người sức mạnh hủy diệt của lửa và nói chung là công nghệ ("techne"), nên Prometheus được bất tử bởi các vị thần bị tra tấn. Sau đó, Mary Shelley đã tạo ra phiên bản thần thoại này của chính chúng ta cho con người hiện đại trong cuốn tiểu thuyết Frankenstein của bà, trong đó chúng ta phát triển công nghệ bất tử, thứ sau đó trỗi dậy và cố gắng tiêu diệt chúng ta. Tất nhiên, điều cần thiết để khiến các tờ báo sợ hãi về trí thông minh nhân tạo là hình ảnh tĩnh của một người máy sát thủ mắt đỏ phát sáng từ bộ phim Kẻ hủy diệt của James Cameron.
Mục đích tiến hóa được cho là của huyền thoại này là để thúc đẩy chúng ta xem xét nghiêm túc những rủi ro tiềm ẩn của các công nghệ mới—xét cho cùng, lửa thực sự có thể được sử dụng để thiêu rụi toàn bộ thành phố. Nhưng cũng giống như lửa đồng thời là nền tảng của nền văn minh hiện đại, được sử dụng để giữ ấm và bảo vệ chúng ta trong một thế giới lạnh giá và thù địch, huyền thoại này bỏ qua những lợi thế lớn hơn của hầu hết, nếu không muốn nói là tất cả, các công nghệ mới và thực sự gây ra sự tàn phá cảm xúc tình dục hơn là phân tích hợp lý. Chỉ vì người xưa hoảng sợ như vậy không có nghĩa là chúng ta cũng nên hoảng sợ; chúng ta có thể sử dụng lý trí.
**Tôi nghĩ rằng ý tưởng rằng AI sẽ quyết định giết con người là một sai lầm nghiêm trọng. **AI không phải là một sinh vật sống đã tiến hóa qua hàng tỷ năm để tham gia vào cuộc đấu tranh sinh tồn của những sinh vật khỏe mạnh nhất, như động vật và chính chúng ta. Đó là toán-mã-máy tính, được xây dựng, sở hữu, sử dụng và kiểm soát bởi con người. Việc nghĩ rằng nó sẽ phát triển trí tuệ của riêng mình vào một thời điểm nào đó và quyết định rằng nó có động cơ khiến nó cố gắng giết chúng ta là một làn sóng mê tín dị đoan.
Tóm lại, **AI không có ý chí, không có mục đích, nó không muốn giết bạn vì nó không còn sống. Trí tuệ nhân tạo là một cỗ máy -- không thể sống động hơn máy nướng bánh mì của bạn. **
Bây giờ, rõ ràng, có những người tin tưởng sâu sắc vào những kẻ giết người bằng AI - sự gia tăng điên cuồng đột ngột của các phương tiện truyền thông đưa tin về những cảnh báo nghiêm trọng của họ, một số người tuyên bố rằng họ đã nghiên cứu chủ đề này trong nhiều thập kỷ và hiện đang kinh hoàng trước những gì họ biết là đã làm phiền. Một số tín đồ thực sự này thậm chí còn là những nhà đổi mới thực sự của công nghệ. Những người này ủng hộ tất cả các loại hạn chế kỳ lạ và cực đoan đối với trí tuệ nhân tạo, từ việc cấm phát triển trí tuệ nhân tạo cho đến các cuộc không kích quân sự vào các trung tâm dữ liệu và chiến tranh hạt nhân. Họ lập luận rằng bởi vì những người như tôi không thể loại trừ những hậu quả thảm khốc có thể xảy ra của trí tuệ nhân tạo trong tương lai, chúng ta phải áp dụng lập trường phòng ngừa có thể cần đến bạo lực thể chất và cái chết đáng kể để ngăn chặn những rủi ro có thể xảy ra.
Câu trả lời của tôi là vị trí của họ là không khoa học - các giả thuyết có thể kiểm chứng là gì? Những sự kiện nào sẽ chứng minh giả định này sai? Làm thế nào để chúng ta biết khi nào chúng ta đã bước vào một khu vực nguy hiểm? Những câu hỏi này hầu như không có câu trả lời, ngoài câu "Bạn không thể chứng minh điều đó sẽ không xảy ra!" Trên thực tế, quan điểm của những người theo đạo Báp-tít này rất phi khoa học và cực đoan—một thuyết âm mưu về toán học và mật mã—đến mức họ gọi là Bạo lực thể chất, vì vậy tôi sẽ làm một việc mà tôi không thường làm, đặt câu hỏi về động cơ của họ.
Cụ thể, tôi nghĩ có ba điều đang diễn ra:
Đầu tiên, hãy nhớ lại phản ứng của John von Neumann trước những lo ngại của Robert Oppenheimer về việc ông tạo ra vũ khí hạt nhân - thứ đã góp phần chấm dứt Thế chiến II và ngăn chặn Thế chiến III. Ông nói: "Một số người thừa nhận hành vi phạm tội để khai nhận tội ác của mình. Đâu là cách tốt nhất để khẳng định tầm quan trọng của công việc của mình một cách cường điệu mà không tỏ ra quá khoe khoang? Điều này giải thích sự không nhất quán của những người theo đạo Báp-tít đang thực sự xây dựng và tài trợ cho AI - hãy quan sát hành động của họ chứ không phải lời nói của họ. (Truman thậm chí còn nghiêm khắc hơn sau cuộc gặp với Oppenheimer: "Đừng để đứa trẻ mít ướt đó vào nữa.")
Thứ hai, một số tín đồ Báp-tít thực sự là những kẻ buôn lậu. Có cả một nghề gọi là "chuyên gia an toàn AI", "nhà đạo đức AI", "nhà nghiên cứu rủi ro AI". Công việc của họ là trở thành những người dự đoán ngày tận thế, và những tuyên bố của họ cần được đối xử thích đáng.
Thứ ba, California được biết đến với vô số giáo phái, từ EST đến People's Temple, từ Heaven's Gate đến Manson Family. Nhiều giáo phái trong số này, mặc dù không phải tất cả, đều vô hại và thậm chí còn hỗ trợ những người bị xa lánh tìm thấy mái nhà trong đó. Nhưng một số giáo phái nguy hiểm đến mức thường đấu tranh để đi trên con đường bạo lực và chết chóc.
Và thực tế là, dường như hiển nhiên đối với mọi người ở Vùng Vịnh, rằng "nguy cơ trí tuệ nhân tạo" đã trở thành một giáo phái, xuất hiện trong sự chú ý của giới truyền thông toàn cầu và thảo luận công khai. Giáo phái này đã thu hút không chỉ một số nhân vật bên lề, mà còn cả một số chuyên gia thực sự trong ngành và khá nhiều nhà tài trợ giàu có - bao gồm cả Sam Bankman-Fried cho đến gần đây. Nó đã phát triển một tập hợp toàn bộ các hành vi và niềm tin sùng bái.
Sự sùng bái này không có gì mới - có một truyền thống lâu đời của phương Tây được gọi là Millennialism, đã sinh ra sự sùng bái Ngày tận thế. Sự sùng bái "Rủi ro AI" có tất cả các dấu hiệu của sự sùng bái ngày tận thế theo chủ nghĩa thiên niên kỷ. Từ Wikipedia, tôi đã thực hiện một số bổ sung:
"Chủ nghĩa thiên niên kỷ là niềm tin của một nhóm hoặc phong trào [những nhà tiên tri rủi ro về trí tuệ nhân tạo] rằng một sự thay đổi cơ bản trong xã hội sắp xảy ra [sự xuất hiện của trí tuệ nhân tạo], sau đó mọi thứ sẽ thay đổi [điều không tưởng về trí tuệ nhân tạo , lạc địa hay ngày tận thế ]. Chỉ những sự kiện kịch tính [cấm AI, không kích vào trung tâm dữ liệu, tấn công hạt nhân vào AI không được kiểm soát] mới được cho là thay đổi thế giới [ngăn chặn AI] và những thay đổi đó được cho là do một nhóm người ngoan đạo và trung thành mang lại hoặc tồn tại. Trong hầu hết các giai đoạn của thế hệ thiên niên kỷ, một thảm họa hoặc trận chiến sắp xảy ra [ngày tận thế hoặc phòng chống AI] sẽ kéo theo một thế giới mới, Một thế giới trong sạch [an AI utopia].”
Mô hình giáo phái ngày tận thế này rõ ràng đến mức tôi ngạc nhiên là nhiều người không nhìn thấy nó.
Đừng hiểu sai ý tôi, các giáo phái rất thú vị, tài liệu viết của họ thường sáng tạo và hấp dẫn, và các thành viên của họ rất quyến rũ trong các bữa tiệc tối và trên TV. Nhưng niềm tin cực đoan của họ không nên quyết định tương lai của luật pháp và xã hội - và rõ ràng là họ không nên.
**Rủi ro AI 2: AI sẽ hủy hoại xã hội của chúng ta? **
Ý tưởng thứ hai về rủi ro AI được lưu hành rộng rãi là **AI sẽ hủy diệt xã hội của chúng ta bằng cách tạo ra những kết quả "có hại" (theo cách nói của những người tiên đoán như vậy), ngay cả khi chúng ta không thực sự bị giết. **
Tóm lại: **Nếu những cỗ máy giết người không làm tổn thương chúng ta, thì lời nói căm thù và thông tin sai lệch có thể. **
Đây là một trọng tâm tương đối mới về ngày tận thế, bắt nguồn từ và ở một mức độ nào đó chiếm ưu thế, phong trào “rủi ro AI” mà tôi đã mô tả ở trên. Trên thực tế, thuật ngữ về rủi ro AI gần đây đã thay đổi từ "an toàn AI" (thuật ngữ được sử dụng bởi những người lo lắng rằng AI sẽ thực sự giết chúng ta) thành "sự liên kết của AI" (thuật ngữ được sử dụng bởi những người lo lắng về "tác hại" của xã hội) . Chán nản với sự thay đổi này, những người làm an toàn AI ban đầu dù không biết lấy lại bằng cách nào, giờ ủng hộ việc đổi tên chủ đề rủi ro AI thực tế là "Chủ nghĩa không giết tất cả mọi người" (AInotkilleveryoneism), mặc dù thuật ngữ này vẫn chưa được công nhận rộng rãi, nhưng ít nhất là rõ ràng.
Gợi ý cho đề xuất rủi ro xã hội của AI là thuật ngữ riêng của nó, "AI Alignment". Phù hợp với những gì? giá trị con người. Giá trị nhân văn nào? Ồ, và đây là lúc mọi thứ trở nên phức tạp.
Khi nó xảy ra, tôi đã tận mắt chứng kiến một tình huống tương tự - cuộc chiến "niềm tin và sự an toàn" trên mạng xã hội. Điều rõ ràng là trong nhiều năm qua, các dịch vụ truyền thông xã hội đã phải chịu áp lực mạnh mẽ từ chính phủ và các nhà hoạt động trong việc cấm, hạn chế, kiểm duyệt và đàn áp các loại nội dung. Và những lo ngại về "lời nói căm thù" (và đối tác toán học của nó là "sự thiên vị thuật toán") và "thông tin sai lệch" đã chuyển trực tiếp từ bối cảnh của mạng xã hội sang lĩnh vực mới của "sự liên kết AI".
Những bài học quan trọng tôi đã học được từ các cuộc chiến truyền thông xã hội là:
Một mặt, không có quan điểm tự do ngôn luận tuyệt đối. Đầu tiên, mọi quốc gia, kể cả Hoa Kỳ, coi ít nhất một số nội dung là bất hợp pháp. Thứ hai, có một số loại nội dung nhất định, chẳng hạn như nội dung khiêu dâm trẻ em và kích động bạo lực trong thế giới thực, thường được coi là vượt quá giới hạn ở hầu hết các xã hội — dù hợp pháp hay không. Do đó, bất kỳ nền tảng công nghệ nào hỗ trợ hoặc tạo ra nội dung - lời nói - sẽ có một số hạn chế.
Mặt khác, con dốc trơn trượt không phải là chuyện hoang đường mà là điều tất yếu. Sau khi đã có khuôn khổ để hạn chế ngay cả nội dung nghiêm trọng nhất—chẳng hạn như ngôn từ kích động thù địch, một số thuật ngữ gây tổn thương hoặc thông tin sai lệch, tuyên bố sai sự thật rõ ràng (chẳng hạn như “Giáo hoàng đã qua đời”)—các cơ quan Chính phủ khác nhau, các nhóm hoạt động gây áp lực và không -các tổ chức chính phủ sẽ nhanh chóng hành động để yêu cầu tăng cường kiểm duyệt và đàn áp ngôn luận mà họ cho là mối đe dọa đối với xã hội và/hoặc sở thích cá nhân của họ. Họ sẽ làm như vậy theo những cách bao gồm tội phạm trắng trợn. Chu kỳ này dường như diễn ra mãi mãi trong thực tế, được hỗ trợ bởi các giám sát viên chính thức nhiệt tình trong các cơ cấu quyền lực ưu tú của chúng ta. Điều này đã xảy ra trong không gian truyền thông xã hội trong một thập kỷ và với một số trường hợp ngoại lệ, nó chỉ trở nên tồi tệ hơn.
Vì vậy, bây giờ có sự hình thành năng động này xung quanh "căn chỉnh AI". Những người ủng hộ nó tuyên bố nắm lấy sự khôn ngoan của việc chấp nhận những lời nói và ý tưởng do AI tạo ra có lợi cho xã hội, đồng thời cấm những lời nói và ý tưởng do AI tạo ra có hại cho xã hội. Các đối thủ của nó cho rằng Cảnh sát Tư tưởng cực kỳ kiêu ngạo, hống hách và thường là tội phạm trắng trợn, ít nhất là ở Hoa Kỳ, và trên thực tế đang cố gắng trở thành một chế độ độc tài chính phủ-công ty-học thuật mới về ngôn luận có thẩm quyền, đi thẳng đến George F. Orwell's 1984.
Vì những người ủng hộ cả "sự tin cậy và an ninh" và "sự liên kết của AI" đều tập trung vào một bộ phận rất hẹp của dân số toàn cầu, đặc trưng bởi giới thượng lưu ven biển Hoa Kỳ, bao gồm nhiều người làm việc và viết về ngành công nghệ. Do đó, nhiều độc giả của tôi sẽ thấy mình có điều kiện để tranh luận rằng cần phải có những giới hạn lớn đối với sản lượng AI để tránh làm gián đoạn xã hội. Tôi sẽ không cố gắng thuyết phục các bạn bây giờ, tôi chỉ đơn giản nói rằng đây là bản chất của nhu cầu và hầu hết thế giới không đồng ý với hệ tư tưởng của bạn cũng như không muốn thấy bạn chiến thắng.
Nếu bạn không đồng ý với đạo đức hẹp hòi hiện đang áp đặt trên mạng xã hội và AI thông qua các quy tắc phát ngôn được tăng cường, bạn cũng nên lưu ý rằng cuộc chiến về những gì AI được phép nói/tạo ra sẽ quan trọng hơn nhiều so với cuộc chiến về kiểm duyệt mạng xã hội. quan trọng hơn nhiều. AI rất có thể sẽ trở thành tầng kiểm soát của mọi thứ trên thế giới. Làm thế nào nó được phép hoạt động có lẽ sẽ quan trọng hơn bất cứ điều gì khác. Bạn nên lưu ý rằng một số kỹ sư xã hội đảng phái bị cô lập đang cố gắng quyết định cách AI nên hoạt động ngay bây giờ dưới vỏ bọc theo đuổi những luận điệu cũ bảo vệ bạn.
Tóm lại, đừng để cảnh sát tư tưởng trấn áp AI.
**Rủi ro AI 3: AI sẽ lấy hết việc làm của chúng ta? **
**Nỗi sợ mất việc làm thường trực do máy móc thay thế sức lao động của con người dưới nhiều hình thức khác nhau như cơ giới hóa, tự động hóa, tin học hóa hay trí tuệ nhân tạo. **Mối quan tâm này đã tồn tại hàng trăm năm, kể từ khi các thiết bị cơ khí như máy dệt cơ khí ra đời. Trong khi mọi công nghệ lớn mới trong lịch sử đều dẫn đến nhiều công việc được trả lương cao hơn, thì mọi làn sóng hoảng loạn đều đi kèm với câu chuyện “lần này sẽ khác” - lần này điều đó sẽ xảy ra, lần này là công nghệ. thổi vào sức lao động của con người. Tuy nhiên, điều này không bao giờ xảy ra.
Trong thời gian gần đây, chúng ta đã trải qua hai chu kỳ hoảng loạn về tình trạng thất nghiệp do công nghệ thúc đẩy—nỗi sợ gia công phần mềm của những năm 2000 và nỗi sợ tự động hóa của những năm 2010. Trong khi nhiều phương tiện truyền thông, chuyên gia và thậm chí cả các giám đốc điều hành ngành công nghệ liên tục đập bàn trong suốt hai thập kỷ, tuyên bố rằng tình trạng thất nghiệp hàng loạt sắp xảy ra, thì vào cuối năm 2019—trước khi COVID bùng nổ—cơ hội việc làm của thế giới lớn hơn nhiều so với cùng kỳ. bất kỳ thời điểm nào trong lịch sử, và tiền lương cao hơn.
Tuy nhiên, ý tưởng sai lầm này không biến mất.
Chắc chắn, nó đã trở lại.
Lần này, cuối cùng chúng ta cũng có công nghệ sẽ lấy đi mọi công việc và khiến sức lao động của con người không còn quan trọng nữa - trí tuệ nhân tạo thực sự. Tất nhiên, lần này, lịch sử sẽ không đơn giản lặp lại: AI sẽ dẫn đến thất nghiệp hàng loạt thay vì tăng trưởng kinh tế nhanh chóng, nhiều việc làm hơn và lương cao hơn. Phải?
Không, điều này chắc chắn sẽ không xảy ra, và nếu AI được phép phát triển và lan rộng khắp nền kinh tế, nó có thể dẫn đến sự bùng nổ kinh tế thú vị và lâu dài nhất từ trước đến nay, với mức tăng trưởng việc làm và tiền lương kỷ lục tương ứng -- chính xác là trái ngược với những gì mọi người lo sợ. Lý do là như sau.
**Tự động hóa giết chết việc làm Sai lầm cơ bản mà những người theo chủ nghĩa hữu thần mắc phải được gọi là "ngụy biện về lao động tổng hợp". **** Sai lầm này là có một lượng lao động cố định cần được thực hiện trong nền kinh tế tại bất kỳ thời điểm nào, bằng máy móc hoặc con người, và nếu nó được thực hiện bởi máy móc thì con người không có việc để làm. **
Sai lầm lao động tổng hợp phát sinh tự nhiên từ trực giác, nhưng trực giác đó là sai. **Khi công nghệ được áp dụng vào sản xuất, chúng ta đạt được mức tăng năng suất—sự gia tăng sản lượng được tạo ra bằng cách giảm đầu vào. **Kết quả là giá hàng hóa và dịch vụ giảm. Khi giá hàng hóa và dịch vụ giảm, chúng ta phải trả ít hơn, điều đó có nghĩa là giờ đây chúng ta có thêm khả năng chi tiêu để mua những thứ khác. Điều này làm tăng nhu cầu trong nền kinh tế, thúc đẩy sản xuất mới—cả sản phẩm mới và ngành công nghiệp mới—tạo ra việc làm mới cho những người bị máy móc thay thế. **Kết quả là một nền kinh tế lớn hơn, thịnh vượng hơn về vật chất, nhiều ngành công nghiệp hơn, nhiều sản phẩm hơn, nhiều việc làm hơn. **
Nhưng tin tốt là nhiều hơn thế. Chúng tôi cũng nhận được mức lương cao hơn. Điều này là do ở cấp độ của từng người lao động, thị trường xác định mức bồi thường dựa trên năng suất cận biên của người lao động. Một công nhân trong ngành áp dụng công nghệ có năng suất cao hơn một công nhân trong ngành truyền thống. Người sử dụng lao động sẽ trả nhiều tiền hơn dựa trên năng suất tăng lên của người lao động hoặc người sử dụng lao động khác sẽ làm như vậy vì lợi ích cá nhân thuần túy. Kết quả là các ngành áp dụng công nghệ sẽ không chỉ tăng cơ hội việc làm mà còn tăng lương.
Tóm lại, công nghệ tiên tiến cho phép mọi người làm việc hiệu quả hơn. Điều này khiến giá hàng hóa và dịch vụ hiện tại giảm và tiền lương tăng. Điều này sẽ thúc đẩy tăng trưởng kinh tế và tăng trưởng việc làm, đồng thời kích thích tạo ra việc làm mới và các ngành công nghiệp mới. **Nếu nền kinh tế thị trường có thể hoạt động hiệu quả và công nghệ có thể được giới thiệu một cách tự do, thì đó sẽ là một chu kỳ đi lên không bao giờ kết thúc. Như Friedman đã quan sát, "mong muốn và nhu cầu của con người là vô tận"—chúng ta luôn muốn nhiều hơn những gì chúng ta có. Một nền kinh tế thị trường bao trùm công nghệ là cách chúng ta tiến gần hơn đến việc đạt được mọi thứ mà mọi người có thể tưởng tượng, nhưng không bao giờ thực sự đạt được. Đó là lý do tại sao công nghệ sẽ không phá hủy việc làm, sẽ không bao giờ.
Đối với những người chưa tiếp xúc với những ý tưởng này, đây là những suy nghĩ gây sốc mà có thể mất một thời gian để hiểu. Nhưng tôi xin thề là tôi không bịa ra - thực tế, bạn có thể đọc tất cả chúng trong sách giáo khoa kinh tế học tiêu chuẩn. Tôi giới thiệu chương "Lời nguyền của cỗ máy" trong Kinh tế học trong một bài học của Henry Hazlitt và tác phẩm châm biếm "Lời thỉnh cầu của người thợ làm nến" của Frederic Bastiat Phản đối mặt trời vì mặt trời đã cạnh tranh không công bằng trong ngành chiếu sáng. Chúng ta cũng có phiên bản hiện đại của thời đại chúng ta.
Nhưng bạn có thể nghĩ rằng lần này là khác nhau. Lần này, với sự ra đời của trí tuệ nhân tạo, chúng ta có công nghệ có thể thay thế toàn bộ sức lao động của con người.
Tuy nhiên, theo các nguyên tắc tôi đã mô tả ở trên, hãy tưởng tượng điều đó có nghĩa là gì nếu tất cả sức lao động hiện có của con người được thay thế bằng máy móc.
Điều này có nghĩa là tăng trưởng năng suất kinh tế sẽ cất cánh với một tốc độ hoàn toàn phi thường, vượt xa bất kỳ tiền lệ lịch sử nào. Giá của hàng hóa và dịch vụ hiện có sẽ giảm xuống gần như bằng không trên toàn diện. Phúc lợi của người tiêu dùng sẽ tăng cao. Sức chi tiêu của người tiêu dùng sẽ tăng vọt. Sẽ có một sự gia tăng nhu cầu mới trong nền kinh tế. Các doanh nhân sẽ tạo ra một loạt các ngành công nghiệp mới, sản phẩm mới và dịch vụ mới, đồng thời thuê càng nhiều AI và công nhân càng tốt, càng nhanh càng tốt, để đáp ứng tất cả các nhu cầu mới.
Điều gì sẽ xảy ra nếu trí tuệ nhân tạo thay thế những công nhân này một lần nữa? Chu kỳ này sẽ lặp lại, thúc đẩy phúc lợi của người tiêu dùng, tăng trưởng kinh tế và tăng trưởng việc làm và tiền lương cao hơn. Nó sẽ là một đường xoắn ốc đi lên, dẫn đến một điều không tưởng về vật chất mà Adam Smith và Karl Marx không bao giờ dám mơ tới.
Chúng tôi rất may mắn.
**Rủi ro AI 4: Trí tuệ nhân tạo có dẫn đến bất bình đẳng nghiêm trọng không? **
Nói về Karl Marx, những lo ngại về việc AI cướp đi công việc trực tiếp dẫn đến nguy cơ AI được tuyên bố tiếp theo, đó là, Marc, giả sử AI đảm nhận tất cả các công việc, dù là tốt hay xấu. Vì vậy, chẳng phải việc trở thành chủ sở hữu của trí tuệ nhân tạo gặt hái tất cả các phần thưởng tài chính và những người bình thường không nhận được gì sẽ dẫn đến sự bất bình đẳng về tài sản rất lớn và nghiêm trọng hay sao?
Một cách phù hợp, đây là luận điểm trung tâm của chủ nghĩa Mác cho rằng những người sở hữu phương tiện sản xuất - giai cấp tư sản - chắc chắn sẽ ăn cắp tất cả của cải của xã hội từ những người thực sự làm việc - giai cấp vô sản. Cho dù thực tế có chứng minh nó sai bao nhiêu lần đi chăng nữa thì ngụy biện dường như không bao giờ chết. Nhưng dù sao thì chúng ta hãy bác bỏ nó.
Lỗ hổng trong lý thuyết này là, với tư cách là chủ sở hữu của một phần công nghệ, bạn không có lợi khi giữ nó và không chia sẻ nó—thực tế, điều ngược lại, lợi ích của bạn là bán nó cho càng nhiều khách hàng càng tốt . Thị trường lớn nhất thế giới là thị trường toàn cầu, bao gồm 8 tỷ người. Vì vậy, trên thực tế, mọi công nghệ mới - ngay cả khi nó bắt đầu được bán cho các tập đoàn lớn, được trả lương cao hoặc người tiêu dùng giàu có - sẽ lan truyền nhanh chóng cho đến khi nó rơi vào tay thị trường đại chúng lớn nhất có thể, cuối cùng sẽ bao phủ toàn bộ hành tinh con người.
Ví dụ kinh điển về điều này là cái gọi là "kế hoạch bí mật" của Elon Musk vào năm 2006 - tất nhiên là ông đã công khai - về các kế hoạch của Tesla:
bước đầu tiên, chế tạo chiếc xe thể thao [đắt tiền];
Bước thứ hai là sử dụng số tiền kiếm được ở bước đầu tiên để chế tạo một chiếc ô tô giá cả phải chăng;
Bước 3, sử dụng số tiền kiếm được ở Bước 2 để chế tạo một chiếc xe giá cả phải chăng hơn.
Tất nhiên, đó là những gì anh ấy đã làm và cuối cùng trở thành người giàu nhất thế giới.
Điểm cuối cùng là rất quan trọng. Liệu Musk có giàu hơn nếu ngày nay ông chỉ bán ô tô cho người giàu? Sẽ không. Liệu anh ta có giàu hơn bây giờ nếu anh ta chỉ chế tạo ô tô cho riêng mình? dĩ nhiên là không. Không, anh ta tối đa hóa lợi nhuận của mình bằng cách bán cho thị trường lớn nhất có thể trên toàn thế giới.
Tóm lại, mọi người đều có thể có thứ này, như chúng ta đã thấy trong quá khứ với ô tô, điện, radio, máy tính, Internet, điện thoại di động và công cụ tìm kiếm. Các công ty tạo ra những công nghệ này có động lực cao để giảm giá cho đến khi tất cả mọi người trên hành tinh có thể mua được chúng. Đây chính xác là những gì đã xảy ra trong AI — đó là lý do tại sao bạn có thể sử dụng nó ngay hôm nay trên AI sáng tạo hiện đại miễn phí hoặc chi phí thấp dưới dạng Microsoft Bing và Google Bard — và điều đó sẽ tiếp tục xảy ra. Không phải vì những nhà cung cấp này ngu ngốc hay hào phóng, mà chính xác là vì họ tham lam - họ muốn tối đa hóa quy mô thị trường và do đó tối đa hóa lợi nhuận.
Vì vậy, những gì xảy ra trái ngược với lý thuyết cho rằng công nghệ thúc đẩy sự tập trung của cải - cá nhân người dùng công nghệ, cuối cùng bao gồm mọi con người trên hành tinh, thay vào đó được trao quyền và nắm bắt phần lớn giá trị được tạo ra. Cũng như các công nghệ trước đây, các công ty xây dựng AI - giả định rằng họ phải hoạt động trong một thị trường tự do - sẽ chạy đua để biến điều này thành hiện thực.
Lúc đó Marx đã sai, và bây giờ ông ấy cũng sai.
Điều này không có nghĩa là bất bình đẳng không phải là một vấn đề trong xã hội của chúng ta. Đó là một vấn đề, ngoại trừ việc nó không được thúc đẩy bởi công nghệ, mà thay vào đó, bởi những lĩnh vực kinh tế có khả năng chống lại các công nghệ mới nhất và nơi chính phủ can thiệp nhiều nhất để ngăn chặn việc áp dụng các công nghệ mới như trí tuệ nhân tạo, cụ thể là nhà ở, giáo dục và chăm sóc sức khỏe. **Rủi ro thực sự của AI và bất bình đẳng không phải là AI sẽ gây ra nhiều bất bình đẳng hơn, mà là chúng ta sẽ không cho phép sử dụng AI để giảm bất bình đẳng. **
**Rủi ro AI 5: Liệu AI có khiến người xấu làm điều xấu? **
Cho đến giờ, tôi đã giải thích tại sao bốn trong số năm rủi ro AI được nêu ra thường xuyên nhất lại không thực sự có thật—AI sẽ không sống lại để giết chúng ta, AI sẽ không phá hủy xã hội của chúng ta, trí tuệ nhân tạo sẽ không Trí thông minh sẽ không dẫn dắt thất nghiệp hàng loạt và AI sẽ không dẫn đến sự gia tăng bất bình đẳng nghiêm trọng. Nhưng bây giờ hãy nói về điều thứ năm, và đây là điều mà **Tôi thực sự đồng ý: AI sẽ giúp kẻ xấu làm điều xấu dễ dàng hơn. **
Theo một nghĩa nào đó, đây là một lập luận vòng tròn. Công nghệ là một công cụ. Bắt đầu với lửa và đá, các công cụ có thể được sử dụng cho mục đích tốt—nấu ăn và xây nhà—và cho mục đích xấu—đốt và đánh đập. Bất kỳ công nghệ nào cũng có thể được sử dụng cho mục đích tốt hoặc xấu. có thể hiểu được. Và AI sẽ giúp tội phạm, khủng bố và chính phủ thù địch dễ dàng làm những điều xấu hơn, không còn nghi ngờ gì nữa.
Điều đó khiến một số người nói rằng, nếu đúng như vậy, hãy cấm AI trong trường hợp này trước khi điều tồi tệ xảy ra. Thật không may, AI không phải là một chất phức tạp khó kiếm như plutonium. Ngược lại, đó là tài liệu dễ tiếp cận nhất trên thế giới - toán và mật mã.
Rõ ràng, mèo AI đã ra khỏi gói. Bạn có thể tìm hiểu cách xây dựng trí tuệ nhân tạo với hàng nghìn khóa học, sách, báo và video trực tuyến miễn phí và ngày càng có nhiều triển khai nguồn mở nổi bật hơn mỗi ngày. AI giống như không khí—nó sẽ ở khắp mọi nơi. Để bắt được nó, mức độ đàn áp toàn trị cần phải nghiêm trọng đến mức nào - một chính phủ thế giới giám sát và kiểm soát tất cả các máy tính? Cảnh sát có vũ trang trong những chiếc trực thăng màu đen đột kích GPU lừa đảo? — Chúng ta sẽ không có một xã hội để bảo vệ.
Vì vậy, chúng tôi có hai cách rất đơn giản để đối phó với nguy cơ những kẻ xấu sử dụng AI để làm điều xấu và đó là điều chúng tôi nên tập trung vào.
**Đầu tiên, chúng tôi có luật hình sự hóa hầu hết việc sử dụng trí tuệ nhân tạo cho mục đích xấu. ** Hack vào Lầu năm góc? Đó là một tội ác. Ăn cắp tiền từ ngân hàng? Đó là một tội ác. Chế tạo vũ khí sinh học? Đó là một tội ác. Thực hiện một cuộc tấn công khủng bố? Đó là một tội ác. Chúng ta chỉ cần tập trung vào việc ngăn chặn những tội phạm này khi có thể và truy tố chúng khi không thể. Chúng tôi thậm chí không cần luật mới - Tôi không biết liệu có trường hợp thực tế nào được đưa ra vì việc sử dụng AI với mục đích xấu mà chưa phải là bất hợp pháp hay không. Nếu những cách sử dụng xấu mới được phát hiện, chúng tôi sẽ cấm những cách sử dụng đó. Giấy chứng nhận đã hoàn thành.
Nhưng bạn sẽ chú ý những gì tôi vừa nói - tôi đã nói trước tiên chúng ta nên tập trung vào việc ngăn chặn tội phạm do AI hỗ trợ trước khi những điều tồi tệ xảy ra - điều đó không có nghĩa là cấm AI sao? Chà, có một cách khác để ngăn chặn hành vi đó và đó là sử dụng AI như một công cụ phòng thủ. Trí tuệ nhân tạo trao quyền cho những người xấu với mục tiêu xấu cũng có sức mạnh tương tự trong tay những người tốt — đặc biệt là những người tốt được giao nhiệm vụ ngăn chặn những điều xấu xảy ra.
Ví dụ: nếu bạn lo lắng về việc trí tuệ nhân tạo tạo ra người giả và video giả, thì câu trả lời là xây dựng các hệ thống mới cho phép mọi người xác thực bản thân và nội dung thực thông qua chữ ký mật mã. Việc tạo và sửa đổi kỹ thuật số nội dung thật và giả đã tồn tại trước AI; câu trả lời không phải là cấm bộ xử lý văn bản và Photoshop — hay AI — mà là sử dụng công nghệ để xây dựng một hệ thống thực sự giải quyết được vấn đề.
Vì vậy, ** cách tiếp cận thứ hai là, hãy tích cực sử dụng trí tuệ nhân tạo cho các mục đích lành mạnh, hợp pháp và phòng thủ. Hãy tận dụng trí tuệ nhân tạo trong phòng thủ mạng, phòng thủ sinh học, theo dõi những kẻ khủng bố và mọi việc khác mà chúng ta làm để bảo vệ bản thân, cộng đồng và quốc gia của mình. **
Tất nhiên, có rất nhiều người thông minh trong và ngoài chính phủ đã và đang làm công việc này - nhưng nếu chúng ta dồn tất cả những nỗ lực và trí tuệ hiện tại tập trung vào việc cấm trí tuệ nhân tạo sử dụng trí tuệ nhân tạo để ngăn chặn người xấu làm điều xấu thì không hiệu quả , Tôi tin rằng một thế giới tràn ngập trí tuệ nhân tạo Một thế giới thông minh sẽ an toàn hơn thế giới chúng ta đang sống ngày nay.
Những rủi ro thực sự khi không triển khai AI ở công suất và tốc độ tối đa
Có một rủi ro AI cuối cùng và thực sự có thể là đáng sợ nhất:
AI đang được khai thác không chỉ ở các xã hội phương Tây tương đối tự do mà còn ở Trung Quốc.
Trung Quốc có tầm nhìn về AI rất khác so với chúng ta. Họ thậm chí không giữ bí mật, và họ đã nói rất rõ ràng rằng họ đang theo đuổi mục tiêu của mình. Và, họ không có ý định giới hạn chiến lược AI của mình ở Trung Quốc -- họ dự định làm như vậy khi họ cung cấp mạng 5G, cung cấp các khoản vay Vành đai và Con đường, cung cấp các ứng dụng thân thiện với người tiêu dùng như TikTok làm giao diện người dùng AI kiểm soát và chỉ huy tập trung của họ, lan rộng nó đến mọi nơi trên thế giới.
**Rủi ro lớn nhất đối với AI là Trung Quốc giành được vị trí thống trị AI toàn cầu trong khi chúng ta - Mỹ và phương Tây - thì không. **
Tôi đề xuất một chiến lược đơn giản để giải quyết vấn đề này—thực tế, đây là chiến lược mà Tổng thống Ronald Reagan đã áp dụng khi ông giành chiến thắng trong Chiến tranh Lạnh lần thứ nhất với Liên Xô.
"Ta thắng, bọn họ thua."
Thay vì bị gác lại bởi những nỗi sợ hãi vô căn cứ xung quanh những kẻ giết người bằng AI, AI có hại, AI phá hủy công việc và AI tạo ra sự bất bình đẳng, chúng ta ở Hoa Kỳ và phương Tây nên đầu tư đầy đủ vào AI nhất có thể.
Chúng ta nên chiến đấu trong cuộc đua toàn cầu về ưu thế công nghệ trong AI và đảm bảo rằng Trung Quốc sẽ không giành chiến thắng.
Trong quá trình này, chúng ta nên đưa AI vào các nền kinh tế và xã hội của mình một cách nhanh chóng và mạnh mẽ nhất có thể để tối đa hóa lợi ích của nó đối với năng suất kinh tế và tiềm năng của con người.
Đây là cách tốt nhất để bù đắp những rủi ro thực sự của trí tuệ nhân tạo và đảm bảo rằng cách sống của chúng ta không bị thay thế bởi tầm nhìn của Trung Quốc.
**chúng ta nên làm gì? **
Tôi nghĩ ra một kế hoạch đơn giản:
• Các công ty AI lớn nên được phép xây dựng AI nhanh chóng và tích cực nhất có thể - nhưng không đạt được sự độc quyền theo quy định, không tạo ra một tập đoàn được chính phủ bảo vệ và không bị tuyên bố sai sự thật về rủi ro cạnh tranh của AI trên thị trường. Điều này sẽ tối đa hóa phần thưởng về mặt công nghệ và xã hội từ khả năng tuyệt vời của các công ty này, những viên ngọc quý của chủ nghĩa tư bản hiện đại.
**• Các công ty khởi nghiệp về AI nên được phép xây dựng AI càng nhanh và càng tích cực càng tốt. **Họ sẽ không phải đối mặt với sự bảo vệ mà các tập đoàn lớn nhận được từ chính phủ, họ cũng không nên nhận viện trợ của chính phủ. Họ chỉ nên được phép cạnh tranh. Nếu các công ty khởi nghiệp không thành công, thì sự hiện diện của họ trên thị trường cũng sẽ liên tục thúc đẩy các công ty lớn làm ăn phát đạt — và nền kinh tế và xã hội của chúng ta dù sao cũng là người chiến thắng.
**• AI mã nguồn mở nên được phép phổ biến tự do và cạnh tranh với các công ty AI lớn và các công ty khởi nghiệp. **Nguồn mở không nên có rào cản pháp lý. Ngay cả khi nguồn mở không giành được sự ủng hộ của các công ty, tính khả dụng rộng rãi của nó là một lợi ích cho các sinh viên trên toàn thế giới, những người muốn học cách xây dựng và sử dụng trí tuệ nhân tạo để trở thành một phần của tương lai công nghệ và đảm bảo rằng bất kể họ là ai hay họ có bao nhiêu tiền, AI sẽ sẵn sàng làm việc cho họ.
**• Để chống lại nguy cơ những kẻ xấu sử dụng AI để làm điều xấu, các chính phủ, hợp tác với khu vực tư nhân, nên tích cực tham gia vào mọi khía cạnh của các lĩnh vực rủi ro tiềm ẩn, sử dụng AI để tối đa hóa khả năng phòng vệ của xã hội. **Điều này không nên chỉ giới hạn ở các rủi ro AI mà còn bao gồm các vấn đề chung hơn như suy dinh dưỡng, bệnh tật và các vấn đề về khí hậu. AI có thể là một công cụ cực kỳ mạnh mẽ để giải quyết vấn đề và chúng ta nên nghĩ về nó như vậy.
**• Để ngăn chặn nguy cơ Trung Quốc đạt được sự thống trị AI toàn cầu, chúng ta nên tận dụng tối đa sức mạnh của khu vực tư nhân, các tổ chức nghiên cứu khoa học và chính phủ để cùng nhau thúc đẩy sự thống trị tuyệt đối của AI của Hoa Kỳ và phương Tây trên phạm vi toàn cầu , và cuối cùng ngay cả trong Điều tương tự cũng đúng ở Trung Quốc. Chúng tôi thắng, họ thua. **
Đây là cách chúng ta có thể sử dụng trí tuệ nhân tạo để cứu thế giới.
Đã đến lúc phải hành động.
Truyền thuyết và anh hùng
Tôi kết thúc với hai tuyên bố đơn giản.
Sự phát triển của trí tuệ nhân tạo bắt đầu từ những năm 1940, cùng lúc với việc phát minh ra máy tính. Bài báo khoa học đầu tiên về mạng thần kinh—kiến trúc của trí tuệ nhân tạo mà chúng ta có ngày nay—được xuất bản vào năm 1943. Trong hơn 80 năm qua, cả một thế hệ các nhà khoa học AI đã ra đời, đi học, làm việc và trong nhiều trường hợp đã ra đi mà không nhìn thấy những phần thưởng mà chúng ta đang nhận được bây giờ. Họ là những huyền thoại, mỗi người trong số họ.
Ngày nay, ngày càng có nhiều kỹ sư—nhiều người trong số họ còn trẻ và có thể có ông bà hoặc thậm chí là cụ cố tham gia vào việc tạo ra các ý tưởng đằng sau AI—đang làm việc để đưa AI vào cuộc sống, bất chấp bức tường của Bức tường hoảng sợ và bi quan dành cho những kẻ phản diện. Tôi không nghĩ họ liều lĩnh hay phản diện. Họ là những anh hùng, mọi người. Tôi và công ty của tôi rất vui khi được hỗ trợ càng nhiều người trong số họ càng tốt và chúng tôi sẽ hỗ trợ họ cũng như công việc của họ 100%.
**"Trong những năm qua, những người theo chủ nghĩa thiên niên kỷ thường [liên tục dự đoán rủi ro trí tuệ nhân tạo] cố gắng dự đoán thời điểm chính xác của các sự kiện tương lai như vậy, thường thông qua việc giải thích các dấu hiệu và điềm báo khác nhau. Tuy nhiên, các dự đoán lịch sử hầu như luôn thất bại Kết thúc [hiện tại không có bằng chứng đáng tin cậy nào cho thấy AI sẽ giết con người]. **Tuy nhiên, những người hâm mộ họ [của những người dự đoán rủi ro AI] thường cố gắng sửa đổi các giải thích để phù hợp với [những rủi ro tiềm ẩn trong tương lai của AI] khi các sự kiện tương ứng xảy ra."
Những người theo giáo phái "rủi ro AI" có thể không đồng ý với tôi và họ có thể khăng khăng rằng họ có lý trí, dựa trên cơ sở khoa học và rằng tôi là một tín đồ bị tẩy não. Tuy nhiên, xin lưu ý rằng tôi không khẳng định rằng "trí tuệ nhân tạo sẽ không bao giờ là mối đe dọa đối với nhân loại". Tôi chỉ đang chỉ ra rằng cho đến nay không có bằng chứng nào ủng hộ luận điểm "AI sẽ giết chúng ta". Thay vì chìm đắm trong sự hoảng loạn và phản ứng giống như giáo phái, chúng ta nên đưa ra những đánh giá hợp lý dựa trên bằng chứng có sẵn.
Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
Phần thưởng
Thích
1
Chia sẻ
Bình luận
0/400
Don’tShortInABull
· 2023-06-07 08:20
Chỉ có trí tuệ nhân tạo mới thực sự hiện thực hóa một xã hội xã hội chủ nghĩa Tôi đã nghĩ như vậy khi còn học tiểu học
Người sáng lập a16z Wanzi Changwen: Tại sao AI sẽ cứu thế giới
Tác giả: MarcAndreessen, người sáng lập a16z; biên dịch: Jinse Finance cryptonaitive&ChatGPT
Thời đại của trí tuệ nhân tạo đã đến, và mọi người đang hoang mang về nó.
May mắn thay, tôi ở đây để mang đến một tin tốt lành: AI sẽ không phá hủy thế giới, mà thực tế nó có thể cứu thế giới.
Đầu tiên, giới thiệu ngắn gọn về trí tuệ nhân tạo là gì: quá trình áp dụng toán học và mã phần mềm để dạy máy tính cách hiểu, tổng hợp và tạo ra kiến thức, giống như con người. Trí tuệ nhân tạo là một chương trình giống như bất kỳ chương trình máy tính nào khác—nó chạy, nhận đầu vào, xử lý và tạo đầu ra. Đầu ra của trí tuệ nhân tạo rất hữu ích trong nhiều lĩnh vực khác nhau, từ lập trình đến y học, luật và nghệ thuật sáng tạo. Nó được sở hữu và kiểm soát bởi con người, giống như bất kỳ công nghệ nào khác.
Mô tả ngắn về trí tuệ nhân tạo: nó không giống như trong phim khi phần mềm giết người và người máy đột nhiên sống lại và quyết định tàn sát con người hoặc phá hủy mọi thứ.
Mô tả ngắn gọn hơn cho trí tuệ nhân tạo: đó có thể là một cách để làm cho mọi thứ chúng ta quan tâm trở nên tốt hơn.
**Tại sao AI có thể làm mọi thứ chúng ta quan tâm trở nên tốt hơn? **
Một kết luận chính của nhiều nghiên cứu được thực hiện trong các ngành khoa học xã hội trong nhiều năm là trí thông minh của con người có thể mang lại những cải tiến đáng kể trong mọi lĩnh vực của cuộc sống. Những người thông minh hơn đạt được kết quả tốt hơn trong hầu hết mọi lĩnh vực: thành tích học tập, hiệu suất công việc, tình trạng nghề nghiệp, thu nhập, khả năng sáng tạo, sức khỏe thể chất, tuổi thọ, học các kỹ năng mới, xử lý các nhiệm vụ phức tạp, khả năng lãnh đạo, thành công trong kinh doanh, giải quyết xung đột, đọc hiểu, ra quyết định tài chính , Hiểu quan điểm của người khác, Nghệ thuật sáng tạo, Kết quả nuôi dạy con cái và Sự hài lòng trong cuộc sống.
Hơn nữa, trí tuệ con người là đòn bẩy mà chúng ta đã sử dụng hàng thiên niên kỷ để tạo ra thế giới của mình: khoa học, công nghệ, toán học, vật lý, hóa học, y học, năng lượng, kiến trúc, giao thông vận tải, truyền thông, nghệ thuật, âm nhạc, văn hóa, triết học, đạo đức và luân lý. Nếu không áp dụng trí thông minh trong tất cả các lĩnh vực này, chúng ta có thể vẫn đang sống trong những túp lều bùn, vật lộn để tồn tại trong cảnh nghèo đói của nghề nông. Thay vào đó, chúng ta đã sử dụng trí thông minh để cải thiện mức sống của mình khoảng 10.000 lần trong 4.000 năm qua.
Trí tuệ nhân tạo mang đến cho chúng ta cơ hội tạo ra nhiều kết quả khác nhau của trí thông minh—từ việc tạo ra các loại thuốc mới để giải quyết vấn đề biến đổi khí hậu cho đến các công nghệ cho phép du hành giữa các vì sao—tốt hơn nhiều trong tương lai bằng cách tăng cường sâu sắc trí thông minh của con người.
Quá trình trí tuệ nhân tạo tăng cường trí thông minh của con người đã bắt đầu - trí tuệ nhân tạo đã xuất hiện xung quanh chúng ta dưới nhiều hình thức khác nhau, chẳng hạn như các hệ thống điều khiển máy tính khác nhau, và giờ đây đã có trí tuệ nhân tạo mô hình ngôn ngữ quy mô lớn như ChatGPT, và từ giờ trở đi, nó sẽ Tăng tốc nhanh chóng - nếu chúng ta cho phép.
Trong thời đại trí tuệ nhân tạo mới của chúng ta:
• Mỗi đứa trẻ sẽ có một gia sư AI với sự kiên nhẫn vô hạn, sự đồng cảm vô hạn, kiến thức vô hạn và sự giúp đỡ vô tận. Người cố vấn AI này sẽ ở bên cạnh mỗi đứa trẻ khi chúng lớn lên, giúp chúng phát huy hết khả năng của mình và mang đến tình yêu thương vô bờ bến.
• Mọi người sẽ có một trợ lý/huấn luyện viên/người cố vấn/người huấn luyện/cố vấn/nhà trị liệu AI với sự kiên nhẫn vô hạn, lòng trắc ẩn vô hạn, kiến thức vô tận và sự giúp đỡ vô tận. Trợ lý AI này sẽ ở đó trong suốt các cơ hội và thách thức của cuộc sống, tối đa hóa kết quả của mọi người.
• Mỗi nhà khoa học sẽ có một trợ lý/cộng tác viên/đối tác AI có khả năng mở rộng đáng kể phạm vi nghiên cứu khoa học và thành tựu của họ. Thế giới của mọi nghệ sĩ, kỹ sư, doanh nhân, bác sĩ và nhân viên y tế cũng vậy.
• Mọi nhà lãnh đạo—CEO, quan chức chính phủ, chủ tịch tổ chức phi lợi nhuận, huấn luyện viên thể thao, giáo viên—cũng sẽ làm như vậy. Tác động khuếch đại của việc các nhà lãnh đạo ra quyết định tốt hơn là rất lớn, vì vậy việc tăng cường trí thông minh có lẽ là quan trọng nhất.
• Tăng trưởng năng suất trong toàn bộ nền kinh tế sẽ tăng tốc đáng kể, thúc đẩy tăng trưởng kinh tế, tạo ra các ngành công nghiệp mới, tạo việc làm mới và tăng trưởng tiền lương, dẫn đến một kỷ nguyên thịnh vượng vật chất mới trên Trái đất.
• Những đột phá khoa học, công nghệ mới và thuốc mới sẽ mở rộng đáng kể khi AI giúp chúng ta tiếp tục giải mã các quy luật tự nhiên và sử dụng chúng vì lợi ích của chúng ta.
• Nghệ thuật sáng tạo sẽ bước vào thời kỳ hoàng kim khi các nghệ sĩ, nhạc sĩ, nhà văn và nhà làm phim được tăng cường AI có thể hiện thực hóa tầm nhìn của họ nhanh hơn và trên quy mô lớn hơn bao giờ hết.
• Tôi thậm chí còn nghĩ rằng AI sẽ cải thiện chiến tranh, khi cần thiết, bằng cách giảm đáng kể tỷ lệ tử vong trong chiến tranh. Mọi cuộc chiến đều được đặc trưng bởi các nhà lãnh đạo con người rất hạn chế đưa ra những quyết định tồi tệ dưới áp lực cực độ và với thông tin hạn chế. Các chỉ huy quân sự và các nhà lãnh đạo chính trị giờ đây sẽ có các cố vấn AI để giúp họ đưa ra các quyết định chiến lược và chiến thuật tốt hơn nhằm giảm thiểu rủi ro, sai sót và đổ máu không cần thiết.
• Nói tóm lại, bất cứ điều gì con người làm ngày nay với trí thông minh tự nhiên của họ đều có thể được thực hiện tốt hơn với AI và chúng ta sẽ có thể đón nhận những thách thức mới không thể giải quyết nếu không có AI, từ việc chữa khỏi mọi bệnh tật cho đến du hành giữa các vì sao.
• Và nó không chỉ là về trí thông minh! Có lẽ chất lượng bị đánh giá thấp nhất của AI là sự tiếp xúc của con người với nó. Nghệ thuật AI mang đến cho những người thiếu kỹ năng kỹ thuật quyền tự do sáng tạo và chia sẻ ý tưởng nghệ thuật của họ. Nói chuyện với một người bạn AI đồng cảm thực sự có thể cải thiện khả năng đối phó với nghịch cảnh của họ. Và, so với con người, các chatbot y tế AI đã đồng cảm hơn. Trí tuệ nhân tạo với sự kiên nhẫn và lòng trắc ẩn vô hạn sẽ biến thế giới trở nên ấm áp và thân thiện hơn.
Cổ phần ở đây rất cao và cơ hội rất lớn. AI hoàn toàn có thể là thứ quan trọng nhất và tốt nhất mà nền văn minh của chúng ta từng thấy, ít nhất là ngang bằng với điện và vi mạch, và thậm chí có thể tốt hơn chúng.
Nghĩa vụ đạo đức của chúng ta đối với bản thân, con cái và tương lai của chúng ta là phát triển và phổ biến trí tuệ nhân tạo — đồng thời tránh xa những rủi ro mà chúng ta nên lo sợ.
Chúng ta xứng đáng được sống trong một thế giới tốt đẹp hơn với trí tuệ nhân tạo và giờ đây chúng ta có thể biến điều đó thành hiện thực.
** Vì vậy, tại sao hoảng loạn? **
Trái ngược với quan điểm tích cực này, cuộc trò chuyện công khai hiện tại về AI đầy rẫy sự hoảng loạn và hoang tưởng.
Chúng tôi nghe đủ loại tuyên bố rằng AI sẽ hủy diệt tất cả chúng ta, phá vỡ xã hội của chúng ta, lấy đi công việc của chúng ta, gây ra sự bất bình đẳng lớn và cho phép những kẻ xấu làm những điều khủng khiếp.
Tại sao lại có sự khác biệt này trong các kết quả tiềm năng, từ gần như không tưởng đến lạc hậu khủng khiếp?
**Trong lịch sử, mọi công nghệ mới quan trọng, từ bóng đèn đến ô tô, từ đài phát thanh đến Internet, đều gây ra sự hoang mang về đạo đức—một sự lây lan xã hội khiến mọi người tin rằng công nghệ mới sẽ hủy diệt thế giới hoặc xã hội, hoặc Cả hai sẽ diệt vong. **Những người tốt tại Archives of Bissimism đã ghi lại những giai đoạn hoảng loạn đạo đức do công nghệ thúc đẩy trong nhiều thập kỷ này; lịch sử của họ cho thấy rõ khuôn mẫu này. Hóa ra, sự hoảng loạn hiện nay đối với trí tuệ nhân tạo thậm chí không phải là lần đầu tiên.
Ngay bây giờ, thực sự có nhiều công nghệ mới dẫn đến những kết quả không mong muốn—thường là những công nghệ mang lại lợi ích to lớn cho phúc lợi của chúng ta. Vì vậy, không phải sự hiện diện của một sự hoảng loạn về đạo đức có nghĩa là không có gì phải lo lắng.
Nhưng ** sự hoảng loạn về đạo đức vốn dĩ là phi lý - nó phóng đại những gì có thể là mối quan tâm chính đáng đến mức cuồng loạn, trớ trêu thay, lại khiến chúng ta khó đối mặt với những vấn đề thực sự nghiêm trọng hơn. **
Ngay bây giờ chúng ta đang trong tình trạng hoảng loạn về mặt đạo đức đối với AI.
Sự hoảng loạn về mặt đạo đức này đã bị nhiều bên lợi dụng để thúc đẩy hành động chính sách – thúc đẩy các hạn chế, quy định và luật mới về AI. Những diễn viên này đang công khai lên tiếng về sự nguy hiểm của trí tuệ nhân tạo với kịch tính cực đoan—chúng nuôi dưỡng và tiếp tục thúc đẩy sự hoảng loạn về đạo đức—tất cả đều thể hiện mình là những người bảo vệ lợi ích chung một cách vô vị lợi.
Nhưng họ có thực sự như thế này không?
Họ đúng hay sai?
** AI Baptists và Moonshiners**
Các nhà kinh tế đã quan sát thấy một mô hình lâu đời giữa các phong trào cải cách như vậy. Những người tham gia vào các phong trào này có thể được chia thành hai loại - "Người rửa tội" và "người buôn lậu", dựa trên ví dụ lịch sử về Cấm rượu ở Hoa Kỳ vào những năm 1920:
• "Những người theo chủ nghĩa rửa tội" là những nhà cải cách xã hội có niềm tin thực sự, những người tin tưởng sâu sắc và đầy cảm xúc (mặc dù không nhất thiết là về mặt trí tuệ) rằng cần có những hạn chế, quy định và luật mới để ngăn chặn thảm họa xã hội. Trong trường hợp Cấm rượu, những diễn viên này thường là những Cơ đốc nhân chân thành, những người tin rằng rượu đang phá hủy kết cấu đạo đức của xã hội. Đối với rủi ro AI, những tác nhân này là những người thực sự tin rằng AI gây ra rủi ro tồn tại ở dạng này hay dạng khác - nếu bạn buộc họ vào máy phát hiện nói dối, họ thực sự làm như vậy.
• Những kẻ buôn lậu là những kẻ cơ hội tư lợi, những người được hưởng lợi từ các hạn chế, quy định và luật mới khi chúng được thực hiện và tự bảo vệ mình khỏi các đối thủ cạnh tranh. Đối với Cấm, đây là những kẻ buôn lậu đã kiếm được khối tài sản khổng lồ khi bán rượu bất hợp pháp vào thời điểm việc bán rượu hợp pháp bị cấm. Đối với rủi ro AI, đây là những giám đốc điều hành có thể kiếm được nhiều tiền hơn nếu họ xây dựng một loại cartel gồm các nhà cung cấp AI được chính phủ hậu thuẫn, được bảo vệ khỏi các công ty khởi nghiệp và cạnh tranh nguồn mở. thất bại" ngân hàng.
Một người hoài nghi có thể lập luận rằng một số người theo đạo Báp-tít bề ngoài cũng là những kẻ buôn lậu — đặc biệt là những người có trường đại học, tổ chức tư vấn, nhóm hoạt động và cơ quan truyền thông trả lương hoặc nhận tài trợ để tấn công AI. Nếu bạn được trả lương hoặc trợ cấp để gây ra sự hoảng loạn về AI, bạn có thể là một kẻ buôn lậu.
Vấn đề với bootleggers là họ giành chiến thắng. Những người theo đạo Báp-tít là những nhà tư tưởng ngây thơ và những người buôn lậu là những người điều hành hoài nghi, vì vậy kết quả của các phong trào cải cách như vậy thường là những người buôn lậu có được thứ họ muốn - kiểm soát theo quy định, bảo vệ khỏi cạnh tranh, hình thành độc quyền, trong khi những người theo đạo Báp-tít bối rối trước động lực cải thiện xã hội.
Chúng ta vừa trải qua một ví dụ gây sốc – cải cách ngân hàng sau cuộc khủng hoảng tài chính toàn cầu năm 2008. Những người theo đạo Báp-tít nói với chúng tôi rằng chúng tôi cần các luật và quy định mới để phá vỡ các ngân hàng "quá lớn để sụp đổ" để ngăn chặn một cuộc khủng hoảng tương tự xảy ra lần nữa. Vì vậy, Quốc hội Hoa Kỳ đã thông qua Đạo luật Dodd-Frank năm 2010, được quảng cáo là đáp ứng các mục tiêu của Baptists, nhưng thực tế đã bị lợi dụng bởi những kẻ buôn lậu - các ngân hàng lớn. Kết quả cuối cùng là các ngân hàng quá lớn để sụp đổ trong năm 2008 giờ thậm chí còn lớn hơn.
Vì vậy, trong thực tế, ngay cả khi những người Báp-tít chân thành, ngay cả khi những người Báp-tít đúng, họ sẽ bị những kẻ buôn lậu xảo quyệt và tham lam lợi dụng để thu lợi cho mình.
Đây chính xác là những gì hiện đang thúc đẩy quy định AI.
Tuy nhiên, nó không đủ để xác định các tác nhân và đổ lỗi cho động cơ của họ. Chúng ta nên đánh giá nó dựa trên lập luận của những người theo đạo Báp-tít và những kẻ buôn rượu lậu.
**Rủi ro AI 1: Trí tuệ nhân tạo sẽ giết chúng ta? **
**Nguy cơ ngày tận thế đầu tiên và sớm nhất của AI là nỗi sợ hãi rằng AI sẽ quyết định giết loài người. **
Nỗi sợ hãi của chúng ta rằng chính công nghệ sẽ trỗi dậy và hủy diệt chúng ta đã ăn sâu vào văn hóa của chúng ta. Người Hy Lạp thể hiện nỗi sợ hãi này qua thần thoại Prometheus - Prometheus mang đến cho loài người sức mạnh hủy diệt của lửa và nói chung là công nghệ ("techne"), nên Prometheus được bất tử bởi các vị thần bị tra tấn. Sau đó, Mary Shelley đã tạo ra phiên bản thần thoại này của chính chúng ta cho con người hiện đại trong cuốn tiểu thuyết Frankenstein của bà, trong đó chúng ta phát triển công nghệ bất tử, thứ sau đó trỗi dậy và cố gắng tiêu diệt chúng ta. Tất nhiên, điều cần thiết để khiến các tờ báo sợ hãi về trí thông minh nhân tạo là hình ảnh tĩnh của một người máy sát thủ mắt đỏ phát sáng từ bộ phim Kẻ hủy diệt của James Cameron.
Mục đích tiến hóa được cho là của huyền thoại này là để thúc đẩy chúng ta xem xét nghiêm túc những rủi ro tiềm ẩn của các công nghệ mới—xét cho cùng, lửa thực sự có thể được sử dụng để thiêu rụi toàn bộ thành phố. Nhưng cũng giống như lửa đồng thời là nền tảng của nền văn minh hiện đại, được sử dụng để giữ ấm và bảo vệ chúng ta trong một thế giới lạnh giá và thù địch, huyền thoại này bỏ qua những lợi thế lớn hơn của hầu hết, nếu không muốn nói là tất cả, các công nghệ mới và thực sự gây ra sự tàn phá cảm xúc tình dục hơn là phân tích hợp lý. Chỉ vì người xưa hoảng sợ như vậy không có nghĩa là chúng ta cũng nên hoảng sợ; chúng ta có thể sử dụng lý trí.
**Tôi nghĩ rằng ý tưởng rằng AI sẽ quyết định giết con người là một sai lầm nghiêm trọng. **AI không phải là một sinh vật sống đã tiến hóa qua hàng tỷ năm để tham gia vào cuộc đấu tranh sinh tồn của những sinh vật khỏe mạnh nhất, như động vật và chính chúng ta. Đó là toán-mã-máy tính, được xây dựng, sở hữu, sử dụng và kiểm soát bởi con người. Việc nghĩ rằng nó sẽ phát triển trí tuệ của riêng mình vào một thời điểm nào đó và quyết định rằng nó có động cơ khiến nó cố gắng giết chúng ta là một làn sóng mê tín dị đoan.
Tóm lại, **AI không có ý chí, không có mục đích, nó không muốn giết bạn vì nó không còn sống. Trí tuệ nhân tạo là một cỗ máy -- không thể sống động hơn máy nướng bánh mì của bạn. **
Bây giờ, rõ ràng, có những người tin tưởng sâu sắc vào những kẻ giết người bằng AI - sự gia tăng điên cuồng đột ngột của các phương tiện truyền thông đưa tin về những cảnh báo nghiêm trọng của họ, một số người tuyên bố rằng họ đã nghiên cứu chủ đề này trong nhiều thập kỷ và hiện đang kinh hoàng trước những gì họ biết là đã làm phiền. Một số tín đồ thực sự này thậm chí còn là những nhà đổi mới thực sự của công nghệ. Những người này ủng hộ tất cả các loại hạn chế kỳ lạ và cực đoan đối với trí tuệ nhân tạo, từ việc cấm phát triển trí tuệ nhân tạo cho đến các cuộc không kích quân sự vào các trung tâm dữ liệu và chiến tranh hạt nhân. Họ lập luận rằng bởi vì những người như tôi không thể loại trừ những hậu quả thảm khốc có thể xảy ra của trí tuệ nhân tạo trong tương lai, chúng ta phải áp dụng lập trường phòng ngừa có thể cần đến bạo lực thể chất và cái chết đáng kể để ngăn chặn những rủi ro có thể xảy ra.
Câu trả lời của tôi là vị trí của họ là không khoa học - các giả thuyết có thể kiểm chứng là gì? Những sự kiện nào sẽ chứng minh giả định này sai? Làm thế nào để chúng ta biết khi nào chúng ta đã bước vào một khu vực nguy hiểm? Những câu hỏi này hầu như không có câu trả lời, ngoài câu "Bạn không thể chứng minh điều đó sẽ không xảy ra!" Trên thực tế, quan điểm của những người theo đạo Báp-tít này rất phi khoa học và cực đoan—một thuyết âm mưu về toán học và mật mã—đến mức họ gọi là Bạo lực thể chất, vì vậy tôi sẽ làm một việc mà tôi không thường làm, đặt câu hỏi về động cơ của họ.
Cụ thể, tôi nghĩ có ba điều đang diễn ra:
Đầu tiên, hãy nhớ lại phản ứng của John von Neumann trước những lo ngại của Robert Oppenheimer về việc ông tạo ra vũ khí hạt nhân - thứ đã góp phần chấm dứt Thế chiến II và ngăn chặn Thế chiến III. Ông nói: "Một số người thừa nhận hành vi phạm tội để khai nhận tội ác của mình. Đâu là cách tốt nhất để khẳng định tầm quan trọng của công việc của mình một cách cường điệu mà không tỏ ra quá khoe khoang? Điều này giải thích sự không nhất quán của những người theo đạo Báp-tít đang thực sự xây dựng và tài trợ cho AI - hãy quan sát hành động của họ chứ không phải lời nói của họ. (Truman thậm chí còn nghiêm khắc hơn sau cuộc gặp với Oppenheimer: "Đừng để đứa trẻ mít ướt đó vào nữa.")
Thứ hai, một số tín đồ Báp-tít thực sự là những kẻ buôn lậu. Có cả một nghề gọi là "chuyên gia an toàn AI", "nhà đạo đức AI", "nhà nghiên cứu rủi ro AI". Công việc của họ là trở thành những người dự đoán ngày tận thế, và những tuyên bố của họ cần được đối xử thích đáng.
Thứ ba, California được biết đến với vô số giáo phái, từ EST đến People's Temple, từ Heaven's Gate đến Manson Family. Nhiều giáo phái trong số này, mặc dù không phải tất cả, đều vô hại và thậm chí còn hỗ trợ những người bị xa lánh tìm thấy mái nhà trong đó. Nhưng một số giáo phái nguy hiểm đến mức thường đấu tranh để đi trên con đường bạo lực và chết chóc.
Và thực tế là, dường như hiển nhiên đối với mọi người ở Vùng Vịnh, rằng "nguy cơ trí tuệ nhân tạo" đã trở thành một giáo phái, xuất hiện trong sự chú ý của giới truyền thông toàn cầu và thảo luận công khai. Giáo phái này đã thu hút không chỉ một số nhân vật bên lề, mà còn cả một số chuyên gia thực sự trong ngành và khá nhiều nhà tài trợ giàu có - bao gồm cả Sam Bankman-Fried cho đến gần đây. Nó đã phát triển một tập hợp toàn bộ các hành vi và niềm tin sùng bái.
Sự sùng bái này không có gì mới - có một truyền thống lâu đời của phương Tây được gọi là Millennialism, đã sinh ra sự sùng bái Ngày tận thế. Sự sùng bái "Rủi ro AI" có tất cả các dấu hiệu của sự sùng bái ngày tận thế theo chủ nghĩa thiên niên kỷ. Từ Wikipedia, tôi đã thực hiện một số bổ sung:
Mô hình giáo phái ngày tận thế này rõ ràng đến mức tôi ngạc nhiên là nhiều người không nhìn thấy nó.
Đừng hiểu sai ý tôi, các giáo phái rất thú vị, tài liệu viết của họ thường sáng tạo và hấp dẫn, và các thành viên của họ rất quyến rũ trong các bữa tiệc tối và trên TV. Nhưng niềm tin cực đoan của họ không nên quyết định tương lai của luật pháp và xã hội - và rõ ràng là họ không nên.
**Rủi ro AI 2: AI sẽ hủy hoại xã hội của chúng ta? **
Ý tưởng thứ hai về rủi ro AI được lưu hành rộng rãi là **AI sẽ hủy diệt xã hội của chúng ta bằng cách tạo ra những kết quả "có hại" (theo cách nói của những người tiên đoán như vậy), ngay cả khi chúng ta không thực sự bị giết. **
Tóm lại: **Nếu những cỗ máy giết người không làm tổn thương chúng ta, thì lời nói căm thù và thông tin sai lệch có thể. **
Đây là một trọng tâm tương đối mới về ngày tận thế, bắt nguồn từ và ở một mức độ nào đó chiếm ưu thế, phong trào “rủi ro AI” mà tôi đã mô tả ở trên. Trên thực tế, thuật ngữ về rủi ro AI gần đây đã thay đổi từ "an toàn AI" (thuật ngữ được sử dụng bởi những người lo lắng rằng AI sẽ thực sự giết chúng ta) thành "sự liên kết của AI" (thuật ngữ được sử dụng bởi những người lo lắng về "tác hại" của xã hội) . Chán nản với sự thay đổi này, những người làm an toàn AI ban đầu dù không biết lấy lại bằng cách nào, giờ ủng hộ việc đổi tên chủ đề rủi ro AI thực tế là "Chủ nghĩa không giết tất cả mọi người" (AInotkilleveryoneism), mặc dù thuật ngữ này vẫn chưa được công nhận rộng rãi, nhưng ít nhất là rõ ràng.
Gợi ý cho đề xuất rủi ro xã hội của AI là thuật ngữ riêng của nó, "AI Alignment". Phù hợp với những gì? giá trị con người. Giá trị nhân văn nào? Ồ, và đây là lúc mọi thứ trở nên phức tạp.
Khi nó xảy ra, tôi đã tận mắt chứng kiến một tình huống tương tự - cuộc chiến "niềm tin và sự an toàn" trên mạng xã hội. Điều rõ ràng là trong nhiều năm qua, các dịch vụ truyền thông xã hội đã phải chịu áp lực mạnh mẽ từ chính phủ và các nhà hoạt động trong việc cấm, hạn chế, kiểm duyệt và đàn áp các loại nội dung. Và những lo ngại về "lời nói căm thù" (và đối tác toán học của nó là "sự thiên vị thuật toán") và "thông tin sai lệch" đã chuyển trực tiếp từ bối cảnh của mạng xã hội sang lĩnh vực mới của "sự liên kết AI".
Những bài học quan trọng tôi đã học được từ các cuộc chiến truyền thông xã hội là:
Một mặt, không có quan điểm tự do ngôn luận tuyệt đối. Đầu tiên, mọi quốc gia, kể cả Hoa Kỳ, coi ít nhất một số nội dung là bất hợp pháp. Thứ hai, có một số loại nội dung nhất định, chẳng hạn như nội dung khiêu dâm trẻ em và kích động bạo lực trong thế giới thực, thường được coi là vượt quá giới hạn ở hầu hết các xã hội — dù hợp pháp hay không. Do đó, bất kỳ nền tảng công nghệ nào hỗ trợ hoặc tạo ra nội dung - lời nói - sẽ có một số hạn chế.
Mặt khác, con dốc trơn trượt không phải là chuyện hoang đường mà là điều tất yếu. Sau khi đã có khuôn khổ để hạn chế ngay cả nội dung nghiêm trọng nhất—chẳng hạn như ngôn từ kích động thù địch, một số thuật ngữ gây tổn thương hoặc thông tin sai lệch, tuyên bố sai sự thật rõ ràng (chẳng hạn như “Giáo hoàng đã qua đời”)—các cơ quan Chính phủ khác nhau, các nhóm hoạt động gây áp lực và không -các tổ chức chính phủ sẽ nhanh chóng hành động để yêu cầu tăng cường kiểm duyệt và đàn áp ngôn luận mà họ cho là mối đe dọa đối với xã hội và/hoặc sở thích cá nhân của họ. Họ sẽ làm như vậy theo những cách bao gồm tội phạm trắng trợn. Chu kỳ này dường như diễn ra mãi mãi trong thực tế, được hỗ trợ bởi các giám sát viên chính thức nhiệt tình trong các cơ cấu quyền lực ưu tú của chúng ta. Điều này đã xảy ra trong không gian truyền thông xã hội trong một thập kỷ và với một số trường hợp ngoại lệ, nó chỉ trở nên tồi tệ hơn.
Vì vậy, bây giờ có sự hình thành năng động này xung quanh "căn chỉnh AI". Những người ủng hộ nó tuyên bố nắm lấy sự khôn ngoan của việc chấp nhận những lời nói và ý tưởng do AI tạo ra có lợi cho xã hội, đồng thời cấm những lời nói và ý tưởng do AI tạo ra có hại cho xã hội. Các đối thủ của nó cho rằng Cảnh sát Tư tưởng cực kỳ kiêu ngạo, hống hách và thường là tội phạm trắng trợn, ít nhất là ở Hoa Kỳ, và trên thực tế đang cố gắng trở thành một chế độ độc tài chính phủ-công ty-học thuật mới về ngôn luận có thẩm quyền, đi thẳng đến George F. Orwell's 1984.
Vì những người ủng hộ cả "sự tin cậy và an ninh" và "sự liên kết của AI" đều tập trung vào một bộ phận rất hẹp của dân số toàn cầu, đặc trưng bởi giới thượng lưu ven biển Hoa Kỳ, bao gồm nhiều người làm việc và viết về ngành công nghệ. Do đó, nhiều độc giả của tôi sẽ thấy mình có điều kiện để tranh luận rằng cần phải có những giới hạn lớn đối với sản lượng AI để tránh làm gián đoạn xã hội. Tôi sẽ không cố gắng thuyết phục các bạn bây giờ, tôi chỉ đơn giản nói rằng đây là bản chất của nhu cầu và hầu hết thế giới không đồng ý với hệ tư tưởng của bạn cũng như không muốn thấy bạn chiến thắng.
Nếu bạn không đồng ý với đạo đức hẹp hòi hiện đang áp đặt trên mạng xã hội và AI thông qua các quy tắc phát ngôn được tăng cường, bạn cũng nên lưu ý rằng cuộc chiến về những gì AI được phép nói/tạo ra sẽ quan trọng hơn nhiều so với cuộc chiến về kiểm duyệt mạng xã hội. quan trọng hơn nhiều. AI rất có thể sẽ trở thành tầng kiểm soát của mọi thứ trên thế giới. Làm thế nào nó được phép hoạt động có lẽ sẽ quan trọng hơn bất cứ điều gì khác. Bạn nên lưu ý rằng một số kỹ sư xã hội đảng phái bị cô lập đang cố gắng quyết định cách AI nên hoạt động ngay bây giờ dưới vỏ bọc theo đuổi những luận điệu cũ bảo vệ bạn.
Tóm lại, đừng để cảnh sát tư tưởng trấn áp AI.
**Rủi ro AI 3: AI sẽ lấy hết việc làm của chúng ta? **
**Nỗi sợ mất việc làm thường trực do máy móc thay thế sức lao động của con người dưới nhiều hình thức khác nhau như cơ giới hóa, tự động hóa, tin học hóa hay trí tuệ nhân tạo. **Mối quan tâm này đã tồn tại hàng trăm năm, kể từ khi các thiết bị cơ khí như máy dệt cơ khí ra đời. Trong khi mọi công nghệ lớn mới trong lịch sử đều dẫn đến nhiều công việc được trả lương cao hơn, thì mọi làn sóng hoảng loạn đều đi kèm với câu chuyện “lần này sẽ khác” - lần này điều đó sẽ xảy ra, lần này là công nghệ. thổi vào sức lao động của con người. Tuy nhiên, điều này không bao giờ xảy ra.
Trong thời gian gần đây, chúng ta đã trải qua hai chu kỳ hoảng loạn về tình trạng thất nghiệp do công nghệ thúc đẩy—nỗi sợ gia công phần mềm của những năm 2000 và nỗi sợ tự động hóa của những năm 2010. Trong khi nhiều phương tiện truyền thông, chuyên gia và thậm chí cả các giám đốc điều hành ngành công nghệ liên tục đập bàn trong suốt hai thập kỷ, tuyên bố rằng tình trạng thất nghiệp hàng loạt sắp xảy ra, thì vào cuối năm 2019—trước khi COVID bùng nổ—cơ hội việc làm của thế giới lớn hơn nhiều so với cùng kỳ. bất kỳ thời điểm nào trong lịch sử, và tiền lương cao hơn.
Tuy nhiên, ý tưởng sai lầm này không biến mất.
Chắc chắn, nó đã trở lại.
Lần này, cuối cùng chúng ta cũng có công nghệ sẽ lấy đi mọi công việc và khiến sức lao động của con người không còn quan trọng nữa - trí tuệ nhân tạo thực sự. Tất nhiên, lần này, lịch sử sẽ không đơn giản lặp lại: AI sẽ dẫn đến thất nghiệp hàng loạt thay vì tăng trưởng kinh tế nhanh chóng, nhiều việc làm hơn và lương cao hơn. Phải?
Không, điều này chắc chắn sẽ không xảy ra, và nếu AI được phép phát triển và lan rộng khắp nền kinh tế, nó có thể dẫn đến sự bùng nổ kinh tế thú vị và lâu dài nhất từ trước đến nay, với mức tăng trưởng việc làm và tiền lương kỷ lục tương ứng -- chính xác là trái ngược với những gì mọi người lo sợ. Lý do là như sau.
**Tự động hóa giết chết việc làm Sai lầm cơ bản mà những người theo chủ nghĩa hữu thần mắc phải được gọi là "ngụy biện về lao động tổng hợp". **** Sai lầm này là có một lượng lao động cố định cần được thực hiện trong nền kinh tế tại bất kỳ thời điểm nào, bằng máy móc hoặc con người, và nếu nó được thực hiện bởi máy móc thì con người không có việc để làm. **
Sai lầm lao động tổng hợp phát sinh tự nhiên từ trực giác, nhưng trực giác đó là sai. **Khi công nghệ được áp dụng vào sản xuất, chúng ta đạt được mức tăng năng suất—sự gia tăng sản lượng được tạo ra bằng cách giảm đầu vào. **Kết quả là giá hàng hóa và dịch vụ giảm. Khi giá hàng hóa và dịch vụ giảm, chúng ta phải trả ít hơn, điều đó có nghĩa là giờ đây chúng ta có thêm khả năng chi tiêu để mua những thứ khác. Điều này làm tăng nhu cầu trong nền kinh tế, thúc đẩy sản xuất mới—cả sản phẩm mới và ngành công nghiệp mới—tạo ra việc làm mới cho những người bị máy móc thay thế. **Kết quả là một nền kinh tế lớn hơn, thịnh vượng hơn về vật chất, nhiều ngành công nghiệp hơn, nhiều sản phẩm hơn, nhiều việc làm hơn. **
Nhưng tin tốt là nhiều hơn thế. Chúng tôi cũng nhận được mức lương cao hơn. Điều này là do ở cấp độ của từng người lao động, thị trường xác định mức bồi thường dựa trên năng suất cận biên của người lao động. Một công nhân trong ngành áp dụng công nghệ có năng suất cao hơn một công nhân trong ngành truyền thống. Người sử dụng lao động sẽ trả nhiều tiền hơn dựa trên năng suất tăng lên của người lao động hoặc người sử dụng lao động khác sẽ làm như vậy vì lợi ích cá nhân thuần túy. Kết quả là các ngành áp dụng công nghệ sẽ không chỉ tăng cơ hội việc làm mà còn tăng lương.
Tóm lại, công nghệ tiên tiến cho phép mọi người làm việc hiệu quả hơn. Điều này khiến giá hàng hóa và dịch vụ hiện tại giảm và tiền lương tăng. Điều này sẽ thúc đẩy tăng trưởng kinh tế và tăng trưởng việc làm, đồng thời kích thích tạo ra việc làm mới và các ngành công nghiệp mới. **Nếu nền kinh tế thị trường có thể hoạt động hiệu quả và công nghệ có thể được giới thiệu một cách tự do, thì đó sẽ là một chu kỳ đi lên không bao giờ kết thúc. Như Friedman đã quan sát, "mong muốn và nhu cầu của con người là vô tận"—chúng ta luôn muốn nhiều hơn những gì chúng ta có. Một nền kinh tế thị trường bao trùm công nghệ là cách chúng ta tiến gần hơn đến việc đạt được mọi thứ mà mọi người có thể tưởng tượng, nhưng không bao giờ thực sự đạt được. Đó là lý do tại sao công nghệ sẽ không phá hủy việc làm, sẽ không bao giờ.
Đối với những người chưa tiếp xúc với những ý tưởng này, đây là những suy nghĩ gây sốc mà có thể mất một thời gian để hiểu. Nhưng tôi xin thề là tôi không bịa ra - thực tế, bạn có thể đọc tất cả chúng trong sách giáo khoa kinh tế học tiêu chuẩn. Tôi giới thiệu chương "Lời nguyền của cỗ máy" trong Kinh tế học trong một bài học của Henry Hazlitt và tác phẩm châm biếm "Lời thỉnh cầu của người thợ làm nến" của Frederic Bastiat Phản đối mặt trời vì mặt trời đã cạnh tranh không công bằng trong ngành chiếu sáng. Chúng ta cũng có phiên bản hiện đại của thời đại chúng ta.
Nhưng bạn có thể nghĩ rằng lần này là khác nhau. Lần này, với sự ra đời của trí tuệ nhân tạo, chúng ta có công nghệ có thể thay thế toàn bộ sức lao động của con người.
Tuy nhiên, theo các nguyên tắc tôi đã mô tả ở trên, hãy tưởng tượng điều đó có nghĩa là gì nếu tất cả sức lao động hiện có của con người được thay thế bằng máy móc.
Điều này có nghĩa là tăng trưởng năng suất kinh tế sẽ cất cánh với một tốc độ hoàn toàn phi thường, vượt xa bất kỳ tiền lệ lịch sử nào. Giá của hàng hóa và dịch vụ hiện có sẽ giảm xuống gần như bằng không trên toàn diện. Phúc lợi của người tiêu dùng sẽ tăng cao. Sức chi tiêu của người tiêu dùng sẽ tăng vọt. Sẽ có một sự gia tăng nhu cầu mới trong nền kinh tế. Các doanh nhân sẽ tạo ra một loạt các ngành công nghiệp mới, sản phẩm mới và dịch vụ mới, đồng thời thuê càng nhiều AI và công nhân càng tốt, càng nhanh càng tốt, để đáp ứng tất cả các nhu cầu mới.
Điều gì sẽ xảy ra nếu trí tuệ nhân tạo thay thế những công nhân này một lần nữa? Chu kỳ này sẽ lặp lại, thúc đẩy phúc lợi của người tiêu dùng, tăng trưởng kinh tế và tăng trưởng việc làm và tiền lương cao hơn. Nó sẽ là một đường xoắn ốc đi lên, dẫn đến một điều không tưởng về vật chất mà Adam Smith và Karl Marx không bao giờ dám mơ tới.
Chúng tôi rất may mắn.
**Rủi ro AI 4: Trí tuệ nhân tạo có dẫn đến bất bình đẳng nghiêm trọng không? **
Nói về Karl Marx, những lo ngại về việc AI cướp đi công việc trực tiếp dẫn đến nguy cơ AI được tuyên bố tiếp theo, đó là, Marc, giả sử AI đảm nhận tất cả các công việc, dù là tốt hay xấu. Vì vậy, chẳng phải việc trở thành chủ sở hữu của trí tuệ nhân tạo gặt hái tất cả các phần thưởng tài chính và những người bình thường không nhận được gì sẽ dẫn đến sự bất bình đẳng về tài sản rất lớn và nghiêm trọng hay sao?
Một cách phù hợp, đây là luận điểm trung tâm của chủ nghĩa Mác cho rằng những người sở hữu phương tiện sản xuất - giai cấp tư sản - chắc chắn sẽ ăn cắp tất cả của cải của xã hội từ những người thực sự làm việc - giai cấp vô sản. Cho dù thực tế có chứng minh nó sai bao nhiêu lần đi chăng nữa thì ngụy biện dường như không bao giờ chết. Nhưng dù sao thì chúng ta hãy bác bỏ nó.
Lỗ hổng trong lý thuyết này là, với tư cách là chủ sở hữu của một phần công nghệ, bạn không có lợi khi giữ nó và không chia sẻ nó—thực tế, điều ngược lại, lợi ích của bạn là bán nó cho càng nhiều khách hàng càng tốt . Thị trường lớn nhất thế giới là thị trường toàn cầu, bao gồm 8 tỷ người. Vì vậy, trên thực tế, mọi công nghệ mới - ngay cả khi nó bắt đầu được bán cho các tập đoàn lớn, được trả lương cao hoặc người tiêu dùng giàu có - sẽ lan truyền nhanh chóng cho đến khi nó rơi vào tay thị trường đại chúng lớn nhất có thể, cuối cùng sẽ bao phủ toàn bộ hành tinh con người.
Ví dụ kinh điển về điều này là cái gọi là "kế hoạch bí mật" của Elon Musk vào năm 2006 - tất nhiên là ông đã công khai - về các kế hoạch của Tesla:
Tất nhiên, đó là những gì anh ấy đã làm và cuối cùng trở thành người giàu nhất thế giới.
Điểm cuối cùng là rất quan trọng. Liệu Musk có giàu hơn nếu ngày nay ông chỉ bán ô tô cho người giàu? Sẽ không. Liệu anh ta có giàu hơn bây giờ nếu anh ta chỉ chế tạo ô tô cho riêng mình? dĩ nhiên là không. Không, anh ta tối đa hóa lợi nhuận của mình bằng cách bán cho thị trường lớn nhất có thể trên toàn thế giới.
Tóm lại, mọi người đều có thể có thứ này, như chúng ta đã thấy trong quá khứ với ô tô, điện, radio, máy tính, Internet, điện thoại di động và công cụ tìm kiếm. Các công ty tạo ra những công nghệ này có động lực cao để giảm giá cho đến khi tất cả mọi người trên hành tinh có thể mua được chúng. Đây chính xác là những gì đã xảy ra trong AI — đó là lý do tại sao bạn có thể sử dụng nó ngay hôm nay trên AI sáng tạo hiện đại miễn phí hoặc chi phí thấp dưới dạng Microsoft Bing và Google Bard — và điều đó sẽ tiếp tục xảy ra. Không phải vì những nhà cung cấp này ngu ngốc hay hào phóng, mà chính xác là vì họ tham lam - họ muốn tối đa hóa quy mô thị trường và do đó tối đa hóa lợi nhuận.
Vì vậy, những gì xảy ra trái ngược với lý thuyết cho rằng công nghệ thúc đẩy sự tập trung của cải - cá nhân người dùng công nghệ, cuối cùng bao gồm mọi con người trên hành tinh, thay vào đó được trao quyền và nắm bắt phần lớn giá trị được tạo ra. Cũng như các công nghệ trước đây, các công ty xây dựng AI - giả định rằng họ phải hoạt động trong một thị trường tự do - sẽ chạy đua để biến điều này thành hiện thực.
Lúc đó Marx đã sai, và bây giờ ông ấy cũng sai.
Điều này không có nghĩa là bất bình đẳng không phải là một vấn đề trong xã hội của chúng ta. Đó là một vấn đề, ngoại trừ việc nó không được thúc đẩy bởi công nghệ, mà thay vào đó, bởi những lĩnh vực kinh tế có khả năng chống lại các công nghệ mới nhất và nơi chính phủ can thiệp nhiều nhất để ngăn chặn việc áp dụng các công nghệ mới như trí tuệ nhân tạo, cụ thể là nhà ở, giáo dục và chăm sóc sức khỏe. **Rủi ro thực sự của AI và bất bình đẳng không phải là AI sẽ gây ra nhiều bất bình đẳng hơn, mà là chúng ta sẽ không cho phép sử dụng AI để giảm bất bình đẳng. **
**Rủi ro AI 5: Liệu AI có khiến người xấu làm điều xấu? **
Cho đến giờ, tôi đã giải thích tại sao bốn trong số năm rủi ro AI được nêu ra thường xuyên nhất lại không thực sự có thật—AI sẽ không sống lại để giết chúng ta, AI sẽ không phá hủy xã hội của chúng ta, trí tuệ nhân tạo sẽ không Trí thông minh sẽ không dẫn dắt thất nghiệp hàng loạt và AI sẽ không dẫn đến sự gia tăng bất bình đẳng nghiêm trọng. Nhưng bây giờ hãy nói về điều thứ năm, và đây là điều mà **Tôi thực sự đồng ý: AI sẽ giúp kẻ xấu làm điều xấu dễ dàng hơn. **
Theo một nghĩa nào đó, đây là một lập luận vòng tròn. Công nghệ là một công cụ. Bắt đầu với lửa và đá, các công cụ có thể được sử dụng cho mục đích tốt—nấu ăn và xây nhà—và cho mục đích xấu—đốt và đánh đập. Bất kỳ công nghệ nào cũng có thể được sử dụng cho mục đích tốt hoặc xấu. có thể hiểu được. Và AI sẽ giúp tội phạm, khủng bố và chính phủ thù địch dễ dàng làm những điều xấu hơn, không còn nghi ngờ gì nữa.
Điều đó khiến một số người nói rằng, nếu đúng như vậy, hãy cấm AI trong trường hợp này trước khi điều tồi tệ xảy ra. Thật không may, AI không phải là một chất phức tạp khó kiếm như plutonium. Ngược lại, đó là tài liệu dễ tiếp cận nhất trên thế giới - toán và mật mã.
Rõ ràng, mèo AI đã ra khỏi gói. Bạn có thể tìm hiểu cách xây dựng trí tuệ nhân tạo với hàng nghìn khóa học, sách, báo và video trực tuyến miễn phí và ngày càng có nhiều triển khai nguồn mở nổi bật hơn mỗi ngày. AI giống như không khí—nó sẽ ở khắp mọi nơi. Để bắt được nó, mức độ đàn áp toàn trị cần phải nghiêm trọng đến mức nào - một chính phủ thế giới giám sát và kiểm soát tất cả các máy tính? Cảnh sát có vũ trang trong những chiếc trực thăng màu đen đột kích GPU lừa đảo? — Chúng ta sẽ không có một xã hội để bảo vệ.
Vì vậy, chúng tôi có hai cách rất đơn giản để đối phó với nguy cơ những kẻ xấu sử dụng AI để làm điều xấu và đó là điều chúng tôi nên tập trung vào.
**Đầu tiên, chúng tôi có luật hình sự hóa hầu hết việc sử dụng trí tuệ nhân tạo cho mục đích xấu. ** Hack vào Lầu năm góc? Đó là một tội ác. Ăn cắp tiền từ ngân hàng? Đó là một tội ác. Chế tạo vũ khí sinh học? Đó là một tội ác. Thực hiện một cuộc tấn công khủng bố? Đó là một tội ác. Chúng ta chỉ cần tập trung vào việc ngăn chặn những tội phạm này khi có thể và truy tố chúng khi không thể. Chúng tôi thậm chí không cần luật mới - Tôi không biết liệu có trường hợp thực tế nào được đưa ra vì việc sử dụng AI với mục đích xấu mà chưa phải là bất hợp pháp hay không. Nếu những cách sử dụng xấu mới được phát hiện, chúng tôi sẽ cấm những cách sử dụng đó. Giấy chứng nhận đã hoàn thành.
Nhưng bạn sẽ chú ý những gì tôi vừa nói - tôi đã nói trước tiên chúng ta nên tập trung vào việc ngăn chặn tội phạm do AI hỗ trợ trước khi những điều tồi tệ xảy ra - điều đó không có nghĩa là cấm AI sao? Chà, có một cách khác để ngăn chặn hành vi đó và đó là sử dụng AI như một công cụ phòng thủ. Trí tuệ nhân tạo trao quyền cho những người xấu với mục tiêu xấu cũng có sức mạnh tương tự trong tay những người tốt — đặc biệt là những người tốt được giao nhiệm vụ ngăn chặn những điều xấu xảy ra.
Ví dụ: nếu bạn lo lắng về việc trí tuệ nhân tạo tạo ra người giả và video giả, thì câu trả lời là xây dựng các hệ thống mới cho phép mọi người xác thực bản thân và nội dung thực thông qua chữ ký mật mã. Việc tạo và sửa đổi kỹ thuật số nội dung thật và giả đã tồn tại trước AI; câu trả lời không phải là cấm bộ xử lý văn bản và Photoshop — hay AI — mà là sử dụng công nghệ để xây dựng một hệ thống thực sự giải quyết được vấn đề.
Vì vậy, ** cách tiếp cận thứ hai là, hãy tích cực sử dụng trí tuệ nhân tạo cho các mục đích lành mạnh, hợp pháp và phòng thủ. Hãy tận dụng trí tuệ nhân tạo trong phòng thủ mạng, phòng thủ sinh học, theo dõi những kẻ khủng bố và mọi việc khác mà chúng ta làm để bảo vệ bản thân, cộng đồng và quốc gia của mình. **
Tất nhiên, có rất nhiều người thông minh trong và ngoài chính phủ đã và đang làm công việc này - nhưng nếu chúng ta dồn tất cả những nỗ lực và trí tuệ hiện tại tập trung vào việc cấm trí tuệ nhân tạo sử dụng trí tuệ nhân tạo để ngăn chặn người xấu làm điều xấu thì không hiệu quả , Tôi tin rằng một thế giới tràn ngập trí tuệ nhân tạo Một thế giới thông minh sẽ an toàn hơn thế giới chúng ta đang sống ngày nay.
Những rủi ro thực sự khi không triển khai AI ở công suất và tốc độ tối đa
Có một rủi ro AI cuối cùng và thực sự có thể là đáng sợ nhất:
AI đang được khai thác không chỉ ở các xã hội phương Tây tương đối tự do mà còn ở Trung Quốc.
Trung Quốc có tầm nhìn về AI rất khác so với chúng ta. Họ thậm chí không giữ bí mật, và họ đã nói rất rõ ràng rằng họ đang theo đuổi mục tiêu của mình. Và, họ không có ý định giới hạn chiến lược AI của mình ở Trung Quốc -- họ dự định làm như vậy khi họ cung cấp mạng 5G, cung cấp các khoản vay Vành đai và Con đường, cung cấp các ứng dụng thân thiện với người tiêu dùng như TikTok làm giao diện người dùng AI kiểm soát và chỉ huy tập trung của họ, lan rộng nó đến mọi nơi trên thế giới.
**Rủi ro lớn nhất đối với AI là Trung Quốc giành được vị trí thống trị AI toàn cầu trong khi chúng ta - Mỹ và phương Tây - thì không. **
Tôi đề xuất một chiến lược đơn giản để giải quyết vấn đề này—thực tế, đây là chiến lược mà Tổng thống Ronald Reagan đã áp dụng khi ông giành chiến thắng trong Chiến tranh Lạnh lần thứ nhất với Liên Xô.
"Ta thắng, bọn họ thua."
Thay vì bị gác lại bởi những nỗi sợ hãi vô căn cứ xung quanh những kẻ giết người bằng AI, AI có hại, AI phá hủy công việc và AI tạo ra sự bất bình đẳng, chúng ta ở Hoa Kỳ và phương Tây nên đầu tư đầy đủ vào AI nhất có thể.
Chúng ta nên chiến đấu trong cuộc đua toàn cầu về ưu thế công nghệ trong AI và đảm bảo rằng Trung Quốc sẽ không giành chiến thắng.
Trong quá trình này, chúng ta nên đưa AI vào các nền kinh tế và xã hội của mình một cách nhanh chóng và mạnh mẽ nhất có thể để tối đa hóa lợi ích của nó đối với năng suất kinh tế và tiềm năng của con người.
Đây là cách tốt nhất để bù đắp những rủi ro thực sự của trí tuệ nhân tạo và đảm bảo rằng cách sống của chúng ta không bị thay thế bởi tầm nhìn của Trung Quốc.
**chúng ta nên làm gì? **
Tôi nghĩ ra một kế hoạch đơn giản:
• Các công ty AI lớn nên được phép xây dựng AI nhanh chóng và tích cực nhất có thể - nhưng không đạt được sự độc quyền theo quy định, không tạo ra một tập đoàn được chính phủ bảo vệ và không bị tuyên bố sai sự thật về rủi ro cạnh tranh của AI trên thị trường. Điều này sẽ tối đa hóa phần thưởng về mặt công nghệ và xã hội từ khả năng tuyệt vời của các công ty này, những viên ngọc quý của chủ nghĩa tư bản hiện đại.
**• Các công ty khởi nghiệp về AI nên được phép xây dựng AI càng nhanh và càng tích cực càng tốt. **Họ sẽ không phải đối mặt với sự bảo vệ mà các tập đoàn lớn nhận được từ chính phủ, họ cũng không nên nhận viện trợ của chính phủ. Họ chỉ nên được phép cạnh tranh. Nếu các công ty khởi nghiệp không thành công, thì sự hiện diện của họ trên thị trường cũng sẽ liên tục thúc đẩy các công ty lớn làm ăn phát đạt — và nền kinh tế và xã hội của chúng ta dù sao cũng là người chiến thắng.
**• AI mã nguồn mở nên được phép phổ biến tự do và cạnh tranh với các công ty AI lớn và các công ty khởi nghiệp. **Nguồn mở không nên có rào cản pháp lý. Ngay cả khi nguồn mở không giành được sự ủng hộ của các công ty, tính khả dụng rộng rãi của nó là một lợi ích cho các sinh viên trên toàn thế giới, những người muốn học cách xây dựng và sử dụng trí tuệ nhân tạo để trở thành một phần của tương lai công nghệ và đảm bảo rằng bất kể họ là ai hay họ có bao nhiêu tiền, AI sẽ sẵn sàng làm việc cho họ.
**• Để chống lại nguy cơ những kẻ xấu sử dụng AI để làm điều xấu, các chính phủ, hợp tác với khu vực tư nhân, nên tích cực tham gia vào mọi khía cạnh của các lĩnh vực rủi ro tiềm ẩn, sử dụng AI để tối đa hóa khả năng phòng vệ của xã hội. **Điều này không nên chỉ giới hạn ở các rủi ro AI mà còn bao gồm các vấn đề chung hơn như suy dinh dưỡng, bệnh tật và các vấn đề về khí hậu. AI có thể là một công cụ cực kỳ mạnh mẽ để giải quyết vấn đề và chúng ta nên nghĩ về nó như vậy.
**• Để ngăn chặn nguy cơ Trung Quốc đạt được sự thống trị AI toàn cầu, chúng ta nên tận dụng tối đa sức mạnh của khu vực tư nhân, các tổ chức nghiên cứu khoa học và chính phủ để cùng nhau thúc đẩy sự thống trị tuyệt đối của AI của Hoa Kỳ và phương Tây trên phạm vi toàn cầu , và cuối cùng ngay cả trong Điều tương tự cũng đúng ở Trung Quốc. Chúng tôi thắng, họ thua. **
Đây là cách chúng ta có thể sử dụng trí tuệ nhân tạo để cứu thế giới.
Đã đến lúc phải hành động.
Truyền thuyết và anh hùng
Tôi kết thúc với hai tuyên bố đơn giản.
Sự phát triển của trí tuệ nhân tạo bắt đầu từ những năm 1940, cùng lúc với việc phát minh ra máy tính. Bài báo khoa học đầu tiên về mạng thần kinh—kiến trúc của trí tuệ nhân tạo mà chúng ta có ngày nay—được xuất bản vào năm 1943. Trong hơn 80 năm qua, cả một thế hệ các nhà khoa học AI đã ra đời, đi học, làm việc và trong nhiều trường hợp đã ra đi mà không nhìn thấy những phần thưởng mà chúng ta đang nhận được bây giờ. Họ là những huyền thoại, mỗi người trong số họ.
Ngày nay, ngày càng có nhiều kỹ sư—nhiều người trong số họ còn trẻ và có thể có ông bà hoặc thậm chí là cụ cố tham gia vào việc tạo ra các ý tưởng đằng sau AI—đang làm việc để đưa AI vào cuộc sống, bất chấp bức tường của Bức tường hoảng sợ và bi quan dành cho những kẻ phản diện. Tôi không nghĩ họ liều lĩnh hay phản diện. Họ là những anh hùng, mọi người. Tôi và công ty của tôi rất vui khi được hỗ trợ càng nhiều người trong số họ càng tốt và chúng tôi sẽ hỗ trợ họ cũng như công việc của họ 100%.
**"Trong những năm qua, những người theo chủ nghĩa thiên niên kỷ thường [liên tục dự đoán rủi ro trí tuệ nhân tạo] cố gắng dự đoán thời điểm chính xác của các sự kiện tương lai như vậy, thường thông qua việc giải thích các dấu hiệu và điềm báo khác nhau. Tuy nhiên, các dự đoán lịch sử hầu như luôn thất bại Kết thúc [hiện tại không có bằng chứng đáng tin cậy nào cho thấy AI sẽ giết con người]. **Tuy nhiên, những người hâm mộ họ [của những người dự đoán rủi ro AI] thường cố gắng sửa đổi các giải thích để phù hợp với [những rủi ro tiềm ẩn trong tương lai của AI] khi các sự kiện tương ứng xảy ra."
Những người theo giáo phái "rủi ro AI" có thể không đồng ý với tôi và họ có thể khăng khăng rằng họ có lý trí, dựa trên cơ sở khoa học và rằng tôi là một tín đồ bị tẩy não. Tuy nhiên, xin lưu ý rằng tôi không khẳng định rằng "trí tuệ nhân tạo sẽ không bao giờ là mối đe dọa đối với nhân loại". Tôi chỉ đang chỉ ra rằng cho đến nay không có bằng chứng nào ủng hộ luận điểm "AI sẽ giết chúng ta". Thay vì chìm đắm trong sự hoảng loạn và phản ứng giống như giáo phái, chúng ta nên đưa ra những đánh giá hợp lý dựa trên bằng chứng có sẵn.