Business is booming.

Названа опасность искусственного интеллекта для традиционного школьного образования

ИИ грозит оставить всех учителей без работы

Искусственный интеллект, вероятно, положит конец традиционным школьным занятиям, утверждает ведущий эксперт. Профессор Стюарт Рассел говорит, что технология ИИ может привести к тому, что “будет нанято меньше учителей – возможно, даже ни одного”.

Названа опасность искусственного интеллекта для традиционного школьного образования

Один из ведущих мировых экспертов по искусственному интеллекту в эксклюзивном интервью изданию The Guardian предсказал, что недавние достижения в области искусственного интеллекта, вероятно, приведут к концу традиционного школьного обучения.

Профессор Стюарт Рассел, британский специалист по информатике из Калифорнийского университета в Беркли, сказал, что персонализированные преподаватели в стиле ChatGPT могут значительно обогатить образование и расширить глобальный доступ, предоставляя индивидуальное обучение каждой семье со смартфоном. По его словам, технология могла бы реально обеспечить “большую часть материала до конца средней школы”.

“Образование – это самое большое преимущество, на которое мы можем рассчитывать в ближайшие несколько лет, – сказал Рассел перед выступлением в пятницу на глобальном саммите ООН “Искусственный интеллект во благо” в Женеве. – Должно стать возможным в течение нескольких лет, может быть, к концу этого десятилетия, обеспечить довольно высокое качество образования каждому ребенку в мире. Это потенциально преобразует ситуацию”.

Однако эксперт предупредил, что внедрение мощной технологии в секторе образования также сопряжено с рисками, включая потенциальную идеологическую обработку.

Стюарт Рассел привел данные исследований с использованием репетиторов-людей о том, что индивидуальное обучение может быть в два-три раза эффективнее, чем традиционные занятия в классе, позволяя детям получать индивидуальную поддержку и руководствоваться любопытством.

“Оксфорд и Кембридж на самом деле не используют традиционные классы … они используют репетиторов, вероятно, потому, что это более эффективно, – сказал профессор. – Буквально невозможно сделать это для каждого ребенка в мире. Здесь недостаточно взрослых, чтобы ходить вокруг да около.”

Компания OpenAI уже изучает образовательные приложения, объявив в марте о партнерстве с образовательной некоммерческой организацией the Khan Academy для тестирования виртуального репетитора на базе ChatGPT-4.

Эта перспектива может вызвать “обоснованные опасения” среди учителей и педагогических союзов по поводу того, что “будет нанято меньше учителей – возможно, даже вообще никого”, – сказал Рассел. Он предсказал, что участие человека по-прежнему будет иметь важное значение, но может кардинально отличаться от традиционной роли учителя, потенциально включая обязанности “наблюдателя за игровой площадкой”, способствуя более сложной коллективной деятельности и обеспечивая гражданское и нравственное воспитание.

“Мы не проводили экспериментов, поэтому не знаем, будет ли системы искусственного интеллекта достаточно для ребенка. Есть мотивация, есть умение сотрудничать, это не просто вопрос ”Могу ли я подсчитать?” – отметил Рассел. – Важно будет обеспечить сохранение и улучшение социальных аспектов детства”.

Технология также нуждается в тщательной оценке рисков. “Надеюсь, система, если она правильно спроектирована, не будет рассказывать ребенку, как сделать биологическое оружие. Я думаю, с этим можно справиться”, – утверждает Рассел. По его мнению, более насущной проблемой является потенциальная возможность взлома программного обеспечения авторитарными режимами или другими игроками. “Я уверен, что китайское правительство надеется, что [технология] более эффективна для привития лояльности государству, – сказал он. – Я полагаю, мы ожидали бы, что эта технология будет более эффективной, чем книга или учитель”.

Как пишет The Guardian, профессор Рассел потратил годы на то, чтобы подчеркнуть более широкие экзистенциальные риски, связанные с искусственным интеллектом, и в марте подписал наряду с с Илоном Маском и другими открытое письмо, призывающее к паузе в “бесконтрольной гонке” для развития мощных цифровых умов. По словам Рассела, этот вопрос стал более актуальным с появлением больших языковых моделей. “Я думаю об [искусственном общем интеллекте] как о гигантском магните в будущем”, – сказал он. “Чем ближе мы к нему подходим, тем сильнее становится сила. Это определенно кажется ближе, чем раньше”.

По его словам, политики запаздывают с занятием этим вопросом. “Я думаю, правительства проснулись… теперь они бегают вокруг да около, выясняя, что делать”, – сказал он. “Это хорошо – по крайней мере, люди обращают на это внимание”.

Однако управление системами искусственного интеллекта сопряжено как с нормативными, так и с техническими проблемами, поскольку даже эксперты не знают, как количественно оценить риски потери контроля над системой. OpenAI объявила в четверг, что выделит 20% своих вычислительных мощностей на поиск решения для “управления потенциально сверхинтеллектуальным ИИ и предотвращения его выхода из строя”.

“В частности, что касается больших языковых моделей, то мы действительно понятия не имеем, как они работают, – сказал Рассел. – Мы не знаем, способны ли они рассуждать или планировать. У них могут быть внутренние цели, которые они преследуют – мы не знаем, каковы они”.

Даже помимо прямых рисков, системы могут иметь другие непредсказуемые последствия для всего – от действий по борьбе с изменением климата до отношений с Китаем.

“Сотни миллионов людей, а довольно скоро и миллиарды, будут постоянно общаться с этими вещами, – сказал Рассел. – Мы не знаем, в каком направлении они могли бы изменить мировое общественное мнение и политические тенденции”.

“Мы могли бы столкнуться с масштабным экологическим кризисом или ядерной войной и даже не понять, почему это произошло, – добавил ученый. – Это всего лишь последствия того факта, что в каком бы направлении это ни двигало общественное мнение, оно делает это взаимосвязанным образом по всему миру”.

Источник: www.mk.ru

Оставьте ответ

Ваш электронный адрес не будет опубликован.