Рубрик
«Вестник атомпрома». Моральный кодекс для роботов. Этические проблемы, которые ставит эпоха бурного развития искусственного интеллекта В прошлом веке дискуссии о том, представляют ли опасность для человечества высокоинтеллектуальные машины, вели в основном писатели-фантасты. Теперь к ним подключились и ученые, и практики — и не только из сферы ИТ. Авторитетный словарь английского языка Collins назвал словом 2023 года Artificial Intelligence (AI), то есть искусственный интеллект (ИИ), в значении «тип компьютерной технологии, направленный на создание устройств, действующих подобно тому, как работает человеческий разум». Филологи отметили, что в 2023 году это словосочетание употреблялось в четыре раза чаще, чем ранее. В свою очередь, Кембриджский словарь английского языка объявил словом года глагол hallucinate — «галлюцинировать». Нюанс заключается в том, что редакторы словаря имеют в виду новое значение, связанное именно с процессами, при которых ИИ предоставляет пользователю ложную информацию. Все это не в последнюю очередь вызвано тем, что технологии, связанные с искусственным интеллектом, в уходящем году не только развивались быстрыми темпами, но и впервые буквально ворвались в повседневную жизнь обычного непродвинутого пользователя, продемонстрировав совершенно новые возможности и области применения. Причем, согласно некоторым утверждениям, это произошло достаточно неожиданно для самих разработчиков. Сейчас программы ИИ могут применяться практически везде, где необходимо создание текстов или изображений. Предполагается, что вскоре они смогут заменить человека при выполнении целого ряда различных задач в юриспруденции, создании технической документации, иллюстраций, произведений искусства и во многих других областях. Проблема в том, что с увеличением финансирования разработок технологий ИИ со стороны государства и бизнеса, а также с ростом влияния этих технологий на общество возникают все более острые этические вопросы. Рассказываем, как российские исследователи смотрят на проблемы этического регулирования в сфере искусственного интеллекта. Год ИИ В 2023 году произошел стремительный рост технологий генеративного искусственного интеллекта — алгоритмов, способных создавать новый контент, включая текст, программный код, музыку, видео и изображения. Самую широкую известность среди подобных продуктов получил ChatGPT, который был запущен ровно год назад, 30 ноября 2022-го. По данным международной консалтинговой компании McKinsey, уже треть компаний по всему миру регулярно используют генеративный ИИ для решения бизнес-задач, несмотря на то что его массовое распространение произошло лишь недавно. Число активных пользователей ChatGPT достигло 180,5 млн человек к августу текущего года (за пять дней после релиза чат-бота им воспользовался 1 млн человек, к январю 2023-го количество пользователей составило 100 млн, что дало основания называть ChatGPT самым быстрорастущим приложением в истории). Однако быстрое распространение технологий ИИ влечет за собой явные риски этического характера. В частности, практика использования ChatGPT показала, что он может цитировать несуществующие судебные прецеденты, а также выдавать дискриминирующие и предвзятые в отношении определенных групп людей ответы. С целью нахождения баланса между возможностями и рисками применения ИИ в последние месяцы во многих странах проводятся экспертные обсуждения, посвященные регулированию в области ИИ, в том числе с точки зрения этики. Россия не стала исключением. На международной конференции «Путешествие в мир искусственного интеллекта», прошедшей в ноябре 2023 года, о регулировании в сфере ИИ рассуждали представители бизнеса, науки и государства. Для нашей страны это важная тема: Россия занимает четвертое место по количеству систем генеративного искусственного интеллекта, о чем на конференции заявил заместитель председателя правительства РФ Дмитрий Чернышенко. Большая ответственность в этой сфере лежит на разработчиках, так как в ходе работы над улучшением безопасности ИИ-систем можно узнать о всех возможных способах, которыми можно эти системы обмануть, отметил директор Национального центра развития искусственного интеллекта при правительстве РФ Сергей Наквасин. «Таким образом, разработчик может стать страшным человеком: он знает, и как обмануть искусственный интеллект, и какие лазейки еще не перекрыты. Если эта информация утечет, например, в даркнет, то после этого мы станем очень уязвимы к действиям систем ИИ», — подчеркнул эксперт. Потенциал искусственного интеллекта можно и нужно использовать на пользу человечеству. ИИ не заменит, например, врача или педагога, но его можно использовать в качестве надежного помощника для решения прикладных задач в сфере медицины и образования, а также финансов, государственного управления и многих других.В рамках Форума этики в сфере искусственного интеллекта, также состоявшегося в ноябре, руководители ведущих российских исследовательских центров ИИ поделились своим видением регулирования в области современных компьютерных технологий. Полный материал читайте в «Вестнике атомпрома». https://clck.ru/38ddqS
1 фото
«Вестник атомпрома». Моральный кодекс для роботов. Этические проблемы, которые ставит эпоха бурного развития искусственного интеллекта
Рубрики
Топливно-энергетический комплекс