Искусственный интеллект: восстание машин или триумф разума?

Более тысячи известных ученых и бизнесменов подписали письмо с призывом остановить гонку вооружений с искусственным интеллектом. Среди подписантов - профессор физики Стивен Хокинг, Глава компания SpaceX Илон Маск, сооснователь Apple Стив Возняк и другие выдающиеся ученые. Открытое письмо было представлено на международной конвенции по искусственному интеллекту, которая прошла в Буэнос-Айресе. Инициаторы обращения призывают запретить «автономное наступательное оружие» и  предотвратить превращение искусственного интеллекта в робота-убийцу. В тексте письма говорится, что технологии искусственного разума достигли той точки, когда развертывание автономного оружия практически, если не юридически, вопрос не долгих десятилетий, но ближайших лет. Стивен Хокинг предупредил, что развитие подобного оружия может означать конец человеческой расы, а профессор университета Нового Южного Уэльса Тоби Уолш призвал уже «сегодня» принять решение, каким будет будущее людей. Юлия Мучник поговорила (по скайпу) с ученым, работающим в области изучения искусственного интеллекта, сотрудником исследовательского отдела компании Microsoft  Андреем Колобовым.

Ю.М. Вы были участником международной конвенции по искусственному интеллекту в Буэнос Айресе, где было озвучено  обращение Маска и Хокинга. Как отреагировало ваше сообщество исследователей на это обращение, есть ли среди вас те, кто считают опасения Маска и Хокинга преувеличенными?

А.К Такие есть, и их немало, в том числе и среди тех, кто подписал это обращение. Дело в том, что многие инициаторы обращения, не являются исследователями именно в области искусственного интеллекта, при всем огромном к ним уважении. И по всей видимости, они судят о прогрессе в этой сфере по сообщениям прессы, которые часто преувеличены. Поэтому некоторые технические оценки в этом письме специалистам кажутся нереалистичными - например, прогноз создания искусственного интеллекта уже через несколько лет,

Ю.М. А на самом деле, когда будет создан искусственный интеллект?

А. К. Прогнозы разные. Но появление боевых роботов, которые смогут успешно действовать в разнообразных средах совершенно автономно от человека... По моему впечатлению, большинство экспертов в этой области говорит о нескольких десятках лет минимум.

Ю.М. Ну, по историческим меркам это все равно скоро, и бить тревогу  уже сейчас не рано, наверное.

А.К. Да, конечно. Поэтому несмотря на расхождения с какими-то деталями обращения Хокинга и Маска,  общий его посыл исследователи искусственного интеллекта разделяют. Поэтому там так много подписей. Независимо от того, через сколько лет будет создан искусственный интеллект - через 5 - ли, через 50 - специалисты в основном согласны с тем, что надо уже сейчас думать о последствиях его применения в самых разных сферах. Просто отмахнуться от этой темы с моральной, этической точки зрения для нас неприемлемо.

Ю.М. А, все- таки, почему это обращение появилось именно сейчас? В развитии искусственного интеллекта произошел или вот прямо сейчас происходит какой-то решающий прорыв, или что так напугало авторов обращения?

А.К. Сейчас действительно происходит то, что многие специалисты по искусственному интеллекту, и те, кто следят за прогрессом в этой области по популярной технологической литературе, считают прорывными явлениями. В первую очередь, это изобретение эффективно обучаемых архитектур так называемых глубоких нейронных сетей и, конечно, сравнительно быстрых обучающих алгоритмов для них. Сами эти сети известны очень давно, но до недавнего времени исследователи не понимали, как их можно натренировать. В последние несколько лет эти новые алгоритмы привели к значительным успехам, например, в сфере компьютерного зрения - возможности искусственно-интеллектуальных систем с этими способностями приближаются к человеческим, хотя и со значительными техническими оговорками и в ограниченных областях применения. Второй фактор, мне кажется, популярность электронных персональных ассистентов, как Кортана и Сири, которые, опять же в ограниченных областях, способны довольно успешно имитиривать интеллект, а главное – рекламируются и воспринимаются многими пользователями как устройства, неким подобием интеллекта обладающие. Третья сторона (возможно,  не так заметная) -  то, что различные виды роботов (например, "дроны"), стали за последние 10 лет гораздо дешевле и доступнее для широкого круга пользователей, от правительств до частных лиц. 

Ю.М. Вот о "дронах" (Малогабаритный беспилотный летательный аппарат - примеч. редакции). Основная тема обращения Маска и Хокинга - развертывание автономного оружия. То, на что уже  сейчас способно  современное вооружение - это еще разве  нельзя назвать искусственным интеллектом? Упомянутые Вами "дроны"  - чем не роботы-убийцы?

А.Б Нет "дроны" - это еще не автономные роботы, не искусственный интеллект. Они не могут выйти из под контроля человека и начать действовать полностью самостоятельно. Это пока из области фантастики. Другое дело, что управление ими можно перехватить.То есть, "дроны" теоретически  могут выйти из под контроля одного человека, и перейти под контроль другого человека.

Ю.М. То есть пока в применении такого типа вооружений следует  опасаться не "бунта машин", а элементарной человеческой ошибки?

А.К. Или злой воли в первую очередь. Искусственный интеллект - это система, которая сможет действовать полностью автономно. И стало быть опасения будут связаны не с выходом такой системы из под контроля человека. Человек такую систему и не будет контролировать постоянно. Опасения в том, что такой робот с искусственным интеллектом намеренно или, более вероятно, ненамеренно преодолеет те рамки, которые в него встроит создатель.Ю.М. И значит, искусственный интеллект, который будет использоваться, скажем так, в мирных целях, также может повести себя непредсказуемо и опасно для человека, как это показывает в фантастических фильмах и книгах?

А.К. Да. Но проблема не только в этой непредсказуемости, которую часто обсуждают и любят описывать в разных фэнтази. Дело еще в том, что мало кто озабочен сейчас теми трансформациями в общественной, социальной жизни, которые повлечет за собой использование искусственного интеллекта в мирных совершенно целях. Если эти трансформации не анализировать и не направлять взвешенно, последствия могут быть совершенно разрушительными. Пока, к сожалению, на примере гораздо более простых технологий, чем искусственный интеллект, мы видим, что власти, как правило, действуют неадекватно. Они начинают просто что-то запрещать, пытаясь оставить все по-старому.

Ю.М. Например?

А.К. Вот показательная история с сервисом Uber - взяли и запретили его уже в нескольких странах, потому что таксисты бунтуют. Но запретами тут действовать бессмысленно. Научное сообщество (по крайней мере, в Штатах) относится к таким историям, кстати, весьма негативно. Оно мыслит обычно либерально, я бы даже  сказал либертариански. И это, может быть, тоже не всегда самый адекватный взгляд на ситуацию. И в то же время тупыми запретами в таких ситуациях точно ничего не достигнуть, они работать не будут.

Ю.М. А как, если не запретами, надо тогда,  на Ваш взгляд, контролировать внедрение автоматизированных различных систем, а в перспективе искусственного интеллекта в нашу жизнь? Вот, помимо письма Хокинга и Макса, недавно ведь был опубликован другой меморандум на эту тему, так называемый проект АI100. Среди подписантов  - Ваш непосредственный начальник Эрик Хорвитц, директор исследовательского отдела  в Microsoft...
 

А.К. Да, это такая попытка исследователей в области искусственного интеллекта и смежных дисциплинах объединиться и начать совместное глубокое изучение влияния наших исследований на общество по всем направлениям. То есть, речь идет о том, что сами ученые должны прогнозировать результаты своих исследований, заранее предупреждать власти и общество о тех или иных опасностях, вырабатывать какие-то рекомендации, как с помощью ученых же, можно эти опасности преодолевать или минимизировать. Постоянно должен идти вот такой сложный диалог между научным миром, обществом и властями. Не запреты, а именно диалог.

Ю.М. Там в этом меморандуме AI 100 говорится о необходимости  создания некого постоянного комитета, который будет следить за последствиями развития искусственного интеллекта. Что это может быть за комитет? Кто в него должен войти?

А.К. Выдающиеся ученые, к словам которых прислушивались бы и их коллеги, и власти, и общество. Наблюдая за исследованиями в сфере искусственного интеллекта, они могли бы вырабатывать какие-то рекомендации, которые минимизировали бы возможные опасные последствия.

Ю.М. И могли бы в какой-то момент призвать коллег остановиться в каких-то исследованиях?

А.К. Нет, такие призывы бесполезны. Вот даже если я, остановлюсь, найдется кто-то другой, кто продолжит. Это  не оправдание отказа от самоограничений. Это констатация факта - количество желающих от них отказаться всегда будет достаточным, чтобы исследования продолжились. Кроме того, жёстко контролировать тут что-то вряд ли получится просто потому, что сложно выяснить, какие конкретно исследования ведутся в частных коммерческих или в военных лабораториях, или в лабораториях крупных корпораций. Если прогресс  исследований в таких лабораториях захотят до определённого времени скрывать, то по косвенным признакам его определить скорее всего невозможно. Во всяком случае гораздо сложнее, чем, скажем, в случае с ядерными или биологическими разработками. Поэтому влияние прогресса в этих исследованиях надо пытаться прогнозировать, оценивать риски и совместно работать над их минимизацией.

Ю.М. Не слишком ли это утопичный план?

А.К. Во всяком случае, несмотря на все сложности и некоторый идеализм, мне кажется, только этот путь сколько-нибудь плодотворен.

Ю.М. В меморандуме AI 100, говорится о том, что самые серьезные последствия прогресс в исследованиях искусственного интеллекта будет иметь для рынка труда.  Сколько профессий в ближайшем будущем окажутся невостребованными ?

А.К. Да, вот это, на мой взгляд, куда более реальная проблема для общества в ближайшее время, чем появление автономного оружия. Скоро большое количество людей потеряет работу и не сможет с навыками, заточенными под определенную профессию, найти новую. Уже сейчас должны прогнозироваться масштабы этой проблемы и разрабатываться разнообразные программы переквалификации таких людей. Вот сходу могу сказать, что в очень скором времени невостребованной может оказаться профессия того же таксиста. Использование автономных автомобилей действительно не за горами. Они пока не заменят полностью автомобиль, управляемый человеком, и даже не заменят всех таксистов. Но в бизнесе извоза могут произойти кардинальные перемены. Очень много перемен следует ожидать в сельском хозяйстве. Оно и сейчас неприбыльно и дотационно во многих странах. Поддерживается на плаву за счет субсидий. А внедрение даже не искусственного интеллекта, а просто более продвинутых видов прогнозирования и автоматизации ситуацию на рынке труда в этой сфере значительно ухудшит. Не нужными в ближайшее время, видимо, станут рабочие места многих продавцов. Доставка товаров уже сейчас может осуществляться практически автоматизированно. В определенных направлениях медицины тоже в ближайшее время стоит ждать больших перемен.

Ю.М. Но тут ведь и много неоправданных ожиданий есть. Вот в той же медицине известная история с суперкомпьютером Watson компании IBM. В его разработку вложили, кажется, 20 млнов долларов. В итоге этот компьютер победил в викторине  Jeopardy (зарубежный аналог «Своей игры» - примечание редакции). Но все попытки использовать эту штуку в целях медицинской диагностики, насколько я знаю, обернулись ничем. И пока что с Watson можно, по-прежнему, лишь поиграть в «Свою игру» на сайте NYTimes.

А.К. Я бы не сказал, что он не оправдал ожиданий. Он просто не внедрён – пока. И причины тут, в значительной мере, не технологические (хотя и они, безусловно, есть). Тут дело в человеческом факторе. Есть влиятельные группы, которые этому противятся. Это не только и не столько сами врачи, а, например, юристы. В США есть целая армия юристов, готовых от вашего имени засудить врача или больницу в случае медицинской ошибки, и, с другой стороны, целая армия страховщиков, которая специализируется на защите интересов медиков в таких ситуациях.А кого засуживать, если ошибку совершит "робот"? Эти группы не заинтересованы в том, чтобы в их бизнесе происходили какие-то кардинальные перемены. Не поймите неправильно, они не борютя против технологий из принципа; ничего личного - только бизнес.

Ю.М.  В меморандуме АI100 еще говорится о том, что одна из серьезнейших опасностей  развития  машинного интеллекта связана с проблемой  неприкосновенности, конфиденциальности частной жизни... На этот счет есть много конспирологических версий. Мол, за развитием искусственного интеллекта стоят спецслужбы, и это им надо прежде всего для того, чтобы следить за всеми. И те же соцсети в подобном сотрудничестве часто подозревают. Насколько оправданы все эти страхи и подозрения?

А.К. Технологии покушаются на прайвэси очень значительно уже сейчас. Вы же видите, как в социальных сетях анализируются ваши запросы, покупки, поездки, посещения каких то ресурсов в интернете, и вы постоянно получаете соответствующую рекламу. Системы анализа больших данных, чьим способностям очень далеко до, того, что понимается под "сильным" искусственным интеллектом, сводят данные из отдельных источников и вы почти каждым своим действием в интернете поставляете новую информацию для такого анализа. Написав где-нибудь в социальной сети, что вы были в таком то ресторане, или магазине, вы представляете данные, которые при желании можно использовать для каких-то манипуляций. Но никакой конспирологии в этом нет. Нет тайного мирового правительства, которое является заказчиком исследования искусственного интеллекта в этой сфере. Технологии анализа просто выгодны самим комерческим компаниям. Хотя правительства, естественно, такими технологиями тоже пользуются, уже по своим причинам. Поэтому такие исследования идут и будут продолжаться.

Ю.М. А насколько широко используются эти технологии в политической борьбе. Вот боты - это в каком-то смысле искусственный интеллект?

А.К. В ботах интеллектуального гораздо меньше, чем в анализаторах больших данных. Они программируются людьми под определенную, крайне примитивную задачу (например, оставить пост в социальной сети), и решают только эту задачу. Возникновение искусственного интеллекта не является необходимым условием усиления таких манипуляций. В серьёзных избирательных компаниях уже давно, скажем, используются инструменты для анализа больших данных. Опять же, это не искусственный интеллект, это алгоритмы, которые способны замечать закономерности в очень большом количестве информации. И с помощью "советов" этих систем уже сегодня можно весьма успешно влиять на решения людей, что в процессе покупки ими товаров, что в процессе выборов.

Ю.М. Вы говорили, что прогноз Хокинга и Маска  создания искусственного интеллекта в ближайшие годы неоправдан. А, все-таки, что такое искусственный интеллект. Как отличить его от всяческих имитаций?

А.К. Точного определения нет. Это, я бы сказал, системы, которые смогут действовать совершенно автономно от человека в большом количестве областей, не нуждаясь в перепрограммировании для каждой задачи  Сейчас существуют системы, которые могут успешно имитировать интеллект в узких областях применения. Но для каждой новой задачи их приходится очень сильно модифицировать. А искусственный интеллект не нужно будет модифицировать. Он сможет адаптироваться к новой задаче сам. Сейчас, например, персональные электронные ассистенты на смартфонах, такие как Сири или Кортана, воспринимаются публикой часто, как искусственный интеллект. Но это именно имитация. Такой ассистент может побеседовать с вами на несколько запрограммированных тем. Но не более. Способность к самообучению, саморазвитию и адаптации к новым задачам - вот три важнейших признака искусственного интеллекта.Ю.М. И если вернуться к теме безопасности искусственного интеллекта.  Почему нельзя, условно говоря, вмонтировать в такие  программы нечто вроде азимовских законов роботехники? Где основное - непричинение вреда человеку.

А. К. Первая проблема в том, что каждый из исследователей искусственного интеллекта в основном работает над каким-то узким аспектом. Я, например, работаю над алгоритмами принятия системой решений. Но для того, чтобы принимать адекватные решения, система должна получить определенные вводные данные от системы искусственного зрения, от системы восприятия человеческой речи, от других сенсоров и т.д. Над каждой из этих задач работает другой исследователь. То есть, у нас довольно узкая специализация. Поэтому непонятно, кто должен нести ответственность и встраивать в искусственный интеллект какие-то защитные механизмы. Но эта проблема со временем разрешится, когда мы ближе подойдём к интеграции отдельных компонентов в единую систему. Вторая проблема, более фундаментальная - выработать для сложной системы такой механизм тоже будет очень сложно. В идеале хотелось бы создать такую систему ограничения, которую было бы легко анализировать. То есть система  искусственного интеллекта должна быстро понять, соответствует ли ее поведение  заданным рамкам или нет. Значит система ограничений должна быть непротиворечивой, легко формализуемой и иметь в идеале еще целый список свойств.  Это целая подобласть исследований искусственного интеллекта.

Ю.М. Несмотря на появление всевозможных меморандумов и призывов ограничить развитие искусственного интеллекта, или, во всяком случае, более пристально и ответственно наблюдать за последствиями этого развития, такое ощущение, что мы сейчас наблюдаем гонку в этой сфере между крупнейшими корпорациями. И  Google, и Facebook, и Microsoft в последние годы вложили и вкладывают десятки миллионов долларов в это дело, создают специальные лаборатории при своих корпорациях...

А.К Да, так и есть.Такая гонка существует. Но хотя некоторые создаваемые лаборатории называются центрами по развитию искусственного интеллекта, напрямую в создание именно системы искусственного интеллекта  там инвестируют сравнительно мало. Там работают в основном над конкретными проблемами - например, распознаванием изображений, пониманием человеческой речи. Фундаментальные исследования в таких центрах почти не ведутся. Это прикладные исследования, которые дают сравнительно быстрый коммерческий результат, хотя есть и исключения: лаборатория Google X, ряд проектов в нашей лаборатории.

Ю.М.  Microsoft разработал недавно программное обеспечение для смартфонов Кортана. Это, как я понимаю, ваш ответ на появление Сири для Apple и Google Now?  "Уверенная, компетентная, заботливая, добросовестная, но не авторитарная. Она очень хочет учиться и может быть смешной, добавлять шутки в ответы. Она хочет подружиться, но её обязанность состоит в том, чтобы быть личным помощником». Такими словами , руководитель проекта Сузэн Хендрич  описывает Кортана. Можно подумать, что речь идет о человеке. Насколько, все-таки, реально  в перспективе создать искусственный интеллект с  эмоциями, с такими человеческими качествами, как юмор, интуиция?

А.К. Систему с чувством юмора создать можно. Персональные "ассистенты" на смартфонах в принципе способны шутить самостоятельно, не просто прочитывая заранее заложенные в их память шутки. Правда, на ограниченное число тем и не всегда удачно. Но их неудачный юмор бывает даже особенно смешным. Что касается эмоций: искусственный интеллект должен понимать человеческие эмоции. Но встраивать в робота способность их испытывать, мне кажется, не имеет смысла.

Ю.М. Не имеет смысла или невозможно?

А.К. Чтобы сказать, возможно ли, нужно точно определить, что такое эмоции. Если понимать под эмоциями временную, плохо предсказуемую подверженность настроениям, то искусственному интеллекту это будет только вредить. Чтобы успешно действовать в человеческом обществе, он эмоции должен уметь понимать и анализировать, но непонятно зачем ему самому их испытывать.

Ю.М. Насколько я знаю, у вас в здании исследовательского отдела Microsoft  есть какой-то говорящий лифт и виртуальный администратор на ресепшен, которые поражают даже сотрудников своими способностями. Лифт вроде бы как угадывает куда, на какой этаж вам ехать, а «девушка-администратор» может считывать разнообразную информацию, основываясь на внешнем виде человека. Это мифы, или правда у вас там в Microsoft есть такие штуки, обладающие чем-то вроде интуиции?

А.К. Лифт есть и "секретарша" есть. Но особых чудес нет. Перед лифтом установлена камера, с помощью которой отслеживаются передвижения объектов в её поле обзора (лифт даже не "знает", что эти объекты -- люди), и специальная система эти данные обрабатывает, пытаясь предсказать, напрявляются ли объкты к лифту. Если да, система вызывает лифт, чтобы, когда человек до него дойдёт, двери были уже открыты. А "секретарша"  считывает такие вещи, как направление взгляда посетителей, движение их  губ и т.д., чтобы понять, кто из посетителей в данный момент говорит. Она может поддержать элементарную  беседу, ответив впопад на вопросы в пределах каких-то тем. Но если, вы ее попросите, например, предсказать поведение акций на бирже, она, конечно, растеряется. То есть, эти системы далеки от обладания полновесным искусственным интеллектом. Они не обладают интуицией, если под интуицией понимать неформализованное знание.

Ю.М. Мы  больше с Вами сейчас говорили об опасностях, к которым может привести развитие искусственного интеллекта. А насколько, все-таки,  широко достижения в этой сфере уже сейчас используются  в целях улучшения и облегчения жизни человека? Несколько самых ярких примеров можете привести?

А.К. Ну, вот так сходу если -  автопилот. Внедрение этой системы привело к революции в области безопасности полетов. Мы даже не можем представить сколько благодаря автопилоту сохранено человеческих жизней. Или вот оперативные системы для анализа распространения различных заболеваний и их предотвращения. В АФрике они очень широко используются. На основе их анализа принимаются оперативные решения - куда срочно надо доставить ту или иную партию вакцины, где нужно провести какие-то профилактические мероприятия. Современные системы предсказания погоды тоже основаны на достижениях в сфере автоматического анализа данных. Благодаря чему человечество сейчас лучше защищено от опасности неурожаев, от голода.

Ю.М. Есть еще такая важная тема: мы , мне кажется, мало понимаем , как развитие искусственного интеллекта будет влиять на когнитивные способности человека, на его психологию,  и даже на его самооценку. Ведь если так дальше пойдет, человек будет испытывать все больше комплексов неполноценности: кто мы в сравнении с этими роботами...

А. К. Вы знаете, тут что-то предсказать сложно. Уже сейчас многие люди, которые просто пользуются социальными сетями испытывают часто комплекс неполноценности. Просто потому, что пользователи в основном сообщают о позитивных событиях своей жизни, и человеку начинает казаться: вот у всех все хорошо в жизни, а у меня не очень. Открываются новые каналы коммуникации, которых раньше не было, и у человека меняется самооценка. Насколько я знаю, этот эффект социальных сетей никем не был предсказан, когда сети только появлялись. Что уж говорить о предсказании эффектов искусственного интеллекта в этой области.В любом случае, мне кажется, понижение самооценки, если оно призойдёт, будет временным: если искусственный интеллект будет изобретён, он вскоре станет настолько "умнее" нас, что мы перестанем воспринимать его как точку отсчёта.  Мы же не страдаем  от того, что не умеем бегать так же быстро, как гепарды.Ю.М. Из всего о чем мы с Вами говорили следует, что у исследователей искусственного интеллекта, все-таки, есть множество этических проблем. Впору этический кодекс принимать какой-то?

А.К. Такой кодекс, по крайней мере, неформальный, точно не будет лишним.  Думаю, что меморандумы и обращения, которые мы с Вами обсуждали, постепенно со временем приведут к его появлению. Конечно, основной принцип в нем должен быть, как и у врачей - не навреди, но это недостаточно конкретно. Как я говорил, спрогнозировать, каким образом система, которую вы создаете может навредить людям  - это очень, очень нетривиальная задача. Сообщество исследователей только начинает об этом думать всерьёз.

Ю.М. Вы лично больше оптимист или пессимист, когда смотрите на стремительное развитие искусственного интеллекта и думаете о перспективах этого этого развития?

А.К. Я пессимист в том смысле, что, мне кажется, системы сильного искусственного интеллекта будут созданы очень нескоро. Тем не менее, внедрение даже отдельных каких-то достижений на этом пути требует заблаговременного прогнозирования и осмысления последствий. Иначе нас ждет череда серьезных общественных потрясений. Но я оптимист, когда говорят о применении искусственного интеллекта в военных целях. У человечества сейчас есть куча прекрасных способов покончить собой, и, я считаю, по ряду социальных и экономических причин возникновение искусственного интеллекта к этому ассортименту средств добавит очень немного.

 

 

Примечание: Андрей Колобов родился в 1983 году в Омске. В 1994-м переехал с родителями в Москву. После окончания в 2000 году московской школы №1234 с углублённым изучением английского и немецкого языков уехал на учёбу в Университет Калифорнии в Лос Анжелесе; позже перевёлся в Беркли. Закончил Беркли в 2004 году со степенями бакалавра по компьютерной науке и прикладной математике, после чего два года работал инженером в компании Майкрософт. С 2007 по 2013 год -- аспирант факультета компьютерной науки Университета Вашингтона (Сиэтл). Защитив диссертацию Ph.D в области искусственного интеллекта, вернулся в Майкрософт, но в качестве научного сотрудника. В настоящее время работает в исследовательском отделе компании в Рэдмонде, где занимается теорией и применением моделей принятия решений в условиях неопределённости.

 

Метки: Андрей Колобов, дроны, Искусственный интеллект, Майкрософт, обращение, Сири, Хокинг

Поделитесь
Поделитесь
Вы подтверждаете удаление поста?
Этот пост используется в шапке на главной странице.
Его удаление повлечет за собой удаление шапок соответствущих страниц.
Вы подтверждаете удаление поста?