Израильский историк Ювал Ной Харари, автор мировых бестселлеров Sapiens, Homo Deus и “21 урок для XXI века”, в своей новой книге “Nexus. Краткая история информационных сетей от каменного века до ИИ” исследует, как информационные системы — от религиозных текстов до искусственного интеллекта — формировали общества. Издание вошло в списки лучшего нон-фикшна года по версиям The New York Times, The Guardian и The Economist, пишет Village.
Во второй части книги Харари рассматривает потенциальное влияние искусственного интеллекта на человеческий труд. Автор также предупреждает, что алгоритмы могут заменить не только рутинные, но и творческие и эмоциональные профессии.
Историк вспоминает, что еще в 1970-х годах философ Хьюберт Дрейфус в работе What Computers Can’t Do доказывал, что машины никогда не смогут обыграть людей в шахматы. Сегодня же компьютеры не только превзошли гроссмейстеров, но и оказались более “креативными” в поиске новых стратегий. В то же время, как отмечает Харари, машинам до сих пор сложно научиться обычному мытью посуды, ведь это требует моторных навыков и гибкости, которыми алгоритмы пока не обладают.
По мнению автора, современное общество переоценивает интеллектуальные профессии, тогда как автоматизировать работу врача проще, чем медсестры. Врач анализирует данные и ставит диагноз — действия, поддающиеся алгоритмизации, — а медсестра работает с физической болью и эмоциями пациента. Именно поэтому, по словам Харари, в будущем наибольшую ценность будут иметь социальные и моторные навыки, а не только аналитическое мышление.
Другое заблуждение, которое опровергает Харари, касается творчества. По его мнению, если творчество — это способность распознавать закономерности и нарушать их, тогда алгоритмы уже способны быть “художниками”. Они могут создавать музыку или литературные тексты, ведь именно в распознавании закономерностей ИИ превосходит людей.
Третье предположение, которое историк считает ошибочным, — это невозможность для ИИ овладеть эмоциональным интеллектом. Эмоции, объясняет Харари, — это также паттерны, которые можно научиться распознавать.
Он приводит пример исследования 2023 года, в котором ChatGPT продемонстрировал более высокий уровень эмоциональной осведомленности, чем среднестатистический человек, анализируя гипотетические жизненные ситуации. В другом эксперименте пациенты, не зная, что общаются с ботом, оценивали эмпатию ChatGPT выше, чем у врачей-людей.
Несмотря на это, Харари отмечает, что люди ищут не только понимание, но и настоящую эмоциональную связь. Именно поэтому игроки, спортсмены или духовные лидеры остаются интересными в мире, где машины уже способны лучше выполнять их функции.
“Нам интересно наблюдать за спортсменами и гроссмейстерами, чувствовать с ними связь именно потому, что эмоции делают их гораздо ближе и понятнее для нас – в отличие от невозмутимого робота. Мы разделяем с ними эмоциональный опыт и можем сопереживать их чувствам”, — отмечает автор.
В то же время он не исключает, что даже профессии, которые кажутся исключительно “человеческими” — например священство — могут быть автоматизированы. Ведь технически робот способен провести брачную церемонию, выполнить ритуал и зарегистрировать брак. Вопрос лишь в том, признают ли люди приемлемым такое духовное взаимодействие с роботом.
“Однажды компьютеры могут обрести способность чувствовать боль и любовь. А если этого не случится, люди все равно могут относиться к ним так, будто те на это способны”, — подытожил Харари.
Однако Forbes сообщал, что в эпоху стремительной автоматизации наиболее устойчивыми к замене искусственным интеллектом остаются профессии, которые требуют уникальных человеческих качеств, именно таких как эмпатия, оригинальное мышление и стратегическое влияние. К таким сферам относятся здравоохранение, квалифицированные промышленные профессии, креативные направления, а также лидерские и стратегические должности.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Pozytywnie
Neutralnie
Negatywnie
Lubię to!
Super
Ekscytujący
Ciekawy
Smieszny
Smutny
Wściekły
Przerażony
Szokujący
Wzruszający
Rozczarowany
Zaskoczony
Prawda
Manipulacja
Fake news

Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS