НОВОСТИ И ТРЕНДЫ

9 предубеждений, которые убивают вашу программу кибербезопасности

Cyber security ISO27001/ISMS
Я вижу то, что хочу видеть
Мы не всегда столь рациональны в принятии решений, как считаем. Это часто случается, когда мы принимаем повседневные решения от очень простого, что хотим съесть на обед, до более важных, например, какую машину купить, где мы будем жить. Эти когнитивные предубеждения или отклонения от рационального суждения могут влиять на каждый аспект нашей принятия решений. Глупо было бы думать, что такое иррациональное мышление не приводит к неправильной оценке рисков кибербезопасности, или ошибочным суждениям по защите корпоративных систем. Вот список из девяти основных когнитивных отклонений, о которых специалисты по безопасности должны помнить.

Эвристика доступности
Это когда мы слишком сильно полагаемся на то, что первым приходит в голову. Кто-то, восприимчивый к эвристике доступности, сосредоточил бы свои усилия на последних событиях, будь то атаки червей (worm attack - например, происходивших в начале 2000-х годов), программах-шантажистах (ransomware - которые очень популярны сейчас), ботнетах, атаках на отказ в обслуживании dos / ddos, или любых последних тенденциях. Это прекрасный способ тушить пожары, но плохой способ создать устойчивый процесс управления рисками.

Подтверждающее предубеждение
Примером этого предубеждения являются ситуации, когда мы ищем и интерпретируем новую информацию как способ подтверждения наших текущих взглядов, а также обесцениваем данные или точки зрения, противоречащие или являющиеся альтернативой нашим представлениям. Мы видим это в информационной безопасности, когда руководители считают, что технологии могут обеспечить большую часть их защиты, и они смотрят на успехи, которые имеют эти устройства или решения, но возможно, игнорируют их недостатки и поэтому завышают реальную эффективность.

Информационное предубеждение
Информационное предубеждение способствует тому, что специалисты безопасности делают ошибки в измерениях показателей систем или при оценке предоставленной информации. Это может произойти, когда будет проводиться исследование угроз, организационных процессов или эффективности новых контролей безопасности. Возможно, руководитель думает, что чем больше информации - тем лучше, но не знает, какая информация является более ценной. Еще хуже, когда весомые решения принимаются на основе неполной информации. Это также называется предубеждением наблюдателя.

Эффект страуса
Мы часто встречаемся с этим в повседневной жизни. Мы все знаем примеры – человек, который не может выдержать боли, разговаривая о своем плохом финансовом положении, или родители, которые не хотят слышать о недостатках поведения их ребенка. В кибербезопасности мы видим подобные вещи, когда разработчики программного обеспечения не хотят слышать о существующих уязвимостях, обнаруженных специалистами по безопасности, или руководители предприятий, которые не хотят иметь дело с результатами сканирования на уязвимости. Некоторым легче избегать проблем чем приложить усилия для их решения.

Проинновационное предубеждение
Это предвзятое мнение о том, что новая технология или инновация должна использоваться всеми в том виде, в котором она есть. Происходит так, что на рынке появляется новое решение или технология, которые рекламируются на выставках и в СМИ и быстро становятся "хайповыми". В области безопасности понятно, что такие технологии, как big data, анализ угроз (threat intelligence), облачная безопасность или любая другая, могут стать новым трендом. Остерегайтесь тех, кто продвигает последние инновации, так как они могут быть настолько ослеплены предвзятым отношением к ним, что не видят ограничений, которые их ожидают впереди.

Предубеждение по выживанию
Предубеждение по выживанию - влияет на наш выбор. Мы видим его в некоторых аспектах жизни, например, когда смотрим на успешные стартапы и приходим к выводу, что стать успешным довольно просто, потому что мы видим только успехи, а не последствия неудачных усилий. Это может повлиять на ваши решения по управлению рисками. Например, если смотреть на другие компании, которые не пострадали от разрушительного инцидента или их нарушения не стали публичными, вы можете не обращать внимание на вероятность того, что это может произойти с вами.

Предубеждение относительно абсолютной ликвидации рисков
Обществу свойственно предвзятое отношение к рискам, связанным с терроризмом, преступностью, правоохранительной деятельностью, а также вопросам общественной безопасности. Мы тратим массу времени на обсуждение проблем, связанных с ликвидацией всевозможных негативных проявлений. Но, это явно абсурдно. Преступность и риски невозможно полностью устранить их можно контролировать и минимизировать. Это предубеждение касается и кибербезопасности. Люди воспринимают это не как приемлемое снижение рисков, а как их абсолютную ликвидацию.

Эффект присоединения к большинству
Этот эффект мы можем наблюдать как среди поставщиков, так и среди руководителей служб безопасности. Один год на крупных конференциях все в восторге от big data, за год до того от систем менеджмента, оценки рисков и дашбордов соответствия. Не обращайте внимания на большинство, имейте свое мнение и сосредоточьтесь на том, что действительно нужно вашей организации.

Предубеждение по автоматизации
Мы завалены компьютерными панелями и консолями. И тенденция заключается в том, что в большей степени мы слепо доверяем информации, отображаемой в этих системах и можем сбрасывать со счетов другие возможности в пользу того, что предлагает машина.
Предвзятость по автоматизации принимает форму ошибок исключения и включения. Ошибка исключения имеет место, когда люди полагаются на автоматизированную систему, которая не сообщает им о проблеме. В то же время, ошибка включения возникает, когда люди делают, основываясь на неверных вариантах решения, которые предлагает автоматизированная система.
Made on
Tilda