Ошибка техасского снайпера

From Wikipedia, the free encyclopedia

From Wikipedia, the free encyclopedia

The Texas sharpshooter fallacy is an informal fallacy which is committed when differences in data are ignored, but similarities are overemphasized. From this reasoning, a false conclusion is inferred.[1] This fallacy is the philosophical or rhetorical application of the multiple comparisons problem (in statistics) and apophenia (in cognitive psychology). It is related to the clustering illusion, which is the tendency in human cognition to interpret patterns where none actually exist.

The name comes from a joke about a Texan who fires some gunshots at the side of a barn, then paints a shooting target centered on the tightest cluster of hits and claims to be a sharpshooter.[2][3][4]

Structure[edit]

A set of 100 randomly generated coordinates displayed on a scatter graph. Examining the points it is easy to identify apparent patterns. In particular, random data points do not spread out but cluster, giving the impression of «hot spots» created by some underlying cause.

The Texas sharpshooter fallacy often arises when a person has a large amount of data at their disposal but only focuses on a small subset of that data. Some factor other than the one attributed may give all the elements in that subset some kind of common property (or pair of common properties, when arguing for correlation). If the person attempts to account for the likelihood of finding some subset in the large data with some common property by a factor other than its actual cause, then that person is likely committing a Texas sharpshooter fallacy.

The fallacy is characterized by a lack of a specific hypothesis prior to the gathering of data, or the formulation of a hypothesis only after data have already been gathered and examined.[5] Thus, it typically does not apply if one had an ex ante, or prior, expectation of the particular relationship in question before examining the data. For example, one might, prior to examining the information, have in mind a specific physical mechanism implying the particular relationship. One could then use the information to give support or cast doubt on the presence of that mechanism. Alternatively, if additional information can be generated using the same process as the original information, one can use the original information to construct a hypothesis, and then test the hypothesis on the new data. (See hypothesis testing.) What one cannot do is use the same information to construct and test the same hypothesis (see hypotheses suggested by the data)—to do so would be to commit the Texas sharpshooter fallacy.

Examples[edit]

A Swedish study in 1992 tried to determine whether power lines caused some kind of poor health effects.[6] The researchers surveyed people living within 300 meters of high-voltage power lines over 25 years and looked for statistically significant increases in rates of over 800 ailments. The study found that the incidence of childhood leukemia was four times higher among those who lived closest to the power lines, and it spurred calls to action by the Swedish government.[7] The problem with the conclusion, however, was that the number of potential ailments, i.e., over 800, was so large that it created a high probability that at least one ailment would exhibit the appearance of a statistically significant difference by chance alone, a situation known as the multiple comparisons problem. Subsequent studies failed to show any association between power lines and childhood leukemia.[8]

The fallacy is often found in modern-day interpretations of the quatrains of Nostradamus. Nostradamus’s quatrains are often liberally translated from the original (archaic) French, stripped of their historical context, and then applied to support the conclusion that Nostradamus predicted a given modern-day event after the event actually occurred.[9]

See also[edit]

  • Anthropic principle – Philosophical principle about the occurrence of sapient life in the Universe
  • Availability heuristic – Heuristic bias that if something can be recalled, it must be important
  • Confirmation bias – Bias confirming existing attitudes
  • HARKing – Acronym for «Hypothesizing after the results are known»
  • Look-elsewhere effect
  • Overfitting – Flaw in machine learning computer model
  • Postdiction – Explanations given after the fact
  • Ramsey theory – Branch of mathematical combinatorics
  • Scan statistic

[edit]

  • Correlative-based fallacies – Informal fallacies based on correlative conjunctions
  • Cum hoc ergo propter hoc – Refutation of a logical fallacy
  • Post hoc ergo propter hoc – Fallacy of assumption of causality based on sequence of events

References[edit]

  1. ^ Bennett, Bo, «Texas sharpshooter fallacy», Logically Fallacious, retrieved 21 October 2014, description: ignoring the difference while focusing on the similarities, thus coming to an inaccurate conclusion
  2. ^ Barry Popik (2013-03-09). «Texas Sharpshooter Fallacy». barrypopik.com. Retrieved 2015-11-10.
  3. ^ Atul Gawande (1999-08-02). «The cancer-cluster myth» (PDF). The New Yorker. Retrieved 2009-10-10.
  4. ^ Carroll, Robert Todd (2003). The Skeptic’s Dictionary: a collection of strange beliefs, amusing deceptions, and dangerous delusions. John Wiley & Sons. p. 375. ISBN 0-471-27242-6. Retrieved 2012-03-25. The term refers to the story of the Texan who shoots holes in the side of a barn and then draws a bull’s-eye around the bullet holes
  5. ^ Thompson, William C. (July 18, 2009). «Painting the target around the matching profile: the Texas sharpshooter fallacy in forensic DNA interpretation». Law, Probability, & Risk. 8 (3): 257–258. doi:10.1093/lpr/mgp013. Retrieved 2012-03-25. Texas sharpshooter fallacy…this article demonstrates how post hoc target shifting occurs and how it can distort the frequency and likelihood ratio statistics used to characterize DNA matches, making matches appear more probative than they actually are.
  6. ^ Feychting, M.; Ahlbom, A. (1993-10-01). «Magnetic fields and cancer in children residing near Swedish high-voltage power lines». American Journal of Epidemiology. 138 (7): 467–481. doi:10.1093/oxfordjournals.aje.a116881. ISSN 0002-9262. PMID 8213751.
  7. ^ Coghlan, Andy. «Swedish studies pinpoint power line cancer link». New Scientist.
  8. ^ «Frontline: previous reports: transcripts: currents of fear». PBS. 1995-06-13. Archived from the original on 2016-02-03. Retrieved 2012-07-03.
  9. ^ «Nostradamus Predicted 9/11?». snopes.com. Retrieved 2012-07-03.

External links[edit]

  • Fallacy files entry

From Wikipedia, the free encyclopedia

The Texas sharpshooter fallacy is an informal fallacy which is committed when differences in data are ignored, but similarities are overemphasized. From this reasoning, a false conclusion is inferred.[1] This fallacy is the philosophical or rhetorical application of the multiple comparisons problem (in statistics) and apophenia (in cognitive psychology). It is related to the clustering illusion, which is the tendency in human cognition to interpret patterns where none actually exist.

The name comes from a joke about a Texan who fires some gunshots at the side of a barn, then paints a shooting target centered on the tightest cluster of hits and claims to be a sharpshooter.[2][3][4]

Structure[edit]

A set of 100 randomly generated coordinates displayed on a scatter graph. Examining the points it is easy to identify apparent patterns. In particular, random data points do not spread out but cluster, giving the impression of «hot spots» created by some underlying cause.

The Texas sharpshooter fallacy often arises when a person has a large amount of data at their disposal but only focuses on a small subset of that data. Some factor other than the one attributed may give all the elements in that subset some kind of common property (or pair of common properties, when arguing for correlation). If the person attempts to account for the likelihood of finding some subset in the large data with some common property by a factor other than its actual cause, then that person is likely committing a Texas sharpshooter fallacy.

The fallacy is characterized by a lack of a specific hypothesis prior to the gathering of data, or the formulation of a hypothesis only after data have already been gathered and examined.[5] Thus, it typically does not apply if one had an ex ante, or prior, expectation of the particular relationship in question before examining the data. For example, one might, prior to examining the information, have in mind a specific physical mechanism implying the particular relationship. One could then use the information to give support or cast doubt on the presence of that mechanism. Alternatively, if additional information can be generated using the same process as the original information, one can use the original information to construct a hypothesis, and then test the hypothesis on the new data. (See hypothesis testing.) What one cannot do is use the same information to construct and test the same hypothesis (see hypotheses suggested by the data)—to do so would be to commit the Texas sharpshooter fallacy.

Examples[edit]

A Swedish study in 1992 tried to determine whether power lines caused some kind of poor health effects.[6] The researchers surveyed people living within 300 meters of high-voltage power lines over 25 years and looked for statistically significant increases in rates of over 800 ailments. The study found that the incidence of childhood leukemia was four times higher among those who lived closest to the power lines, and it spurred calls to action by the Swedish government.[7] The problem with the conclusion, however, was that the number of potential ailments, i.e., over 800, was so large that it created a high probability that at least one ailment would exhibit the appearance of a statistically significant difference by chance alone, a situation known as the multiple comparisons problem. Subsequent studies failed to show any association between power lines and childhood leukemia.[8]

The fallacy is often found in modern-day interpretations of the quatrains of Nostradamus. Nostradamus’s quatrains are often liberally translated from the original (archaic) French, stripped of their historical context, and then applied to support the conclusion that Nostradamus predicted a given modern-day event after the event actually occurred.[9]

See also[edit]

  • Anthropic principle – Philosophical principle about the occurrence of sapient life in the Universe
  • Availability heuristic – Heuristic bias that if something can be recalled, it must be important
  • Confirmation bias – Bias confirming existing attitudes
  • HARKing – Acronym for «Hypothesizing after the results are known»
  • Look-elsewhere effect
  • Overfitting – Flaw in machine learning computer model
  • Postdiction – Explanations given after the fact
  • Ramsey theory – Branch of mathematical combinatorics
  • Scan statistic

[edit]

  • Correlative-based fallacies – Informal fallacies based on correlative conjunctions
  • Cum hoc ergo propter hoc – Refutation of a logical fallacy
  • Post hoc ergo propter hoc – Fallacy of assumption of causality based on sequence of events

References[edit]

  1. ^ Bennett, Bo, «Texas sharpshooter fallacy», Logically Fallacious, retrieved 21 October 2014, description: ignoring the difference while focusing on the similarities, thus coming to an inaccurate conclusion
  2. ^ Barry Popik (2013-03-09). «Texas Sharpshooter Fallacy». barrypopik.com. Retrieved 2015-11-10.
  3. ^ Atul Gawande (1999-08-02). «The cancer-cluster myth» (PDF). The New Yorker. Retrieved 2009-10-10.
  4. ^ Carroll, Robert Todd (2003). The Skeptic’s Dictionary: a collection of strange beliefs, amusing deceptions, and dangerous delusions. John Wiley & Sons. p. 375. ISBN 0-471-27242-6. Retrieved 2012-03-25. The term refers to the story of the Texan who shoots holes in the side of a barn and then draws a bull’s-eye around the bullet holes
  5. ^ Thompson, William C. (July 18, 2009). «Painting the target around the matching profile: the Texas sharpshooter fallacy in forensic DNA interpretation». Law, Probability, & Risk. 8 (3): 257–258. doi:10.1093/lpr/mgp013. Retrieved 2012-03-25. Texas sharpshooter fallacy…this article demonstrates how post hoc target shifting occurs and how it can distort the frequency and likelihood ratio statistics used to characterize DNA matches, making matches appear more probative than they actually are.
  6. ^ Feychting, M.; Ahlbom, A. (1993-10-01). «Magnetic fields and cancer in children residing near Swedish high-voltage power lines». American Journal of Epidemiology. 138 (7): 467–481. doi:10.1093/oxfordjournals.aje.a116881. ISSN 0002-9262. PMID 8213751.
  7. ^ Coghlan, Andy. «Swedish studies pinpoint power line cancer link». New Scientist.
  8. ^ «Frontline: previous reports: transcripts: currents of fear». PBS. 1995-06-13. Archived from the original on 2016-02-03. Retrieved 2012-07-03.
  9. ^ «Nostradamus Predicted 9/11?». snopes.com. Retrieved 2012-07-03.

External links[edit]

  • Fallacy files entry

Фламинго кусаются не хуже горчицы. А мораль отсюда такова: это птицы одного полёта!

— Герцогиня, «Алиса в стране чудес»

Ошибка техасского снайпера, имеющая также множество просторечных названий[1] — неформальная логическая ошибка, условно относимая к аналитическим ошибкам и состоящая в том, что совершающий её человек делает ситуативное ad hoc-заключение на основании совокупности несвязанных данных без рассмотрения подтверждающих данных по существу.

Формулируя вышесказанное простым языком, человек не делает вывод, основывая его на фактах, а «подгоняет» факты под сам вывод.

Нота Бене: всё сказанное в данной статье справедливо только для тех случаев, когда факты «подгоняются» именно под готовый вывод. Случаи же, когда те же факты «подгоняются» под рабочую гипотезу, которую в дальнейшем планируется проверять экспериментальным путём с применением правил верификации[2] и фальсификации[3], и которая только в случае успешного завершения эксперимента станет готовым выводом, является не логической ошибкой, а продуктивным эмпирическим методом познания.

Логическая структура

  1. Человек рассматривает предмет А;
  2. Для составления вывода об А человек обращает внимание на группу данных Б;
  3. Человек не замечает того, что Б допускают вольную или неоднозначную трактовку и никак не связаны между собой логически;
  4. Считая Б достаточным основанием для постановки вывода об А, человек не утруждается поисками логически связанных фактов об А;
  5. Основываясь лишь на Б, человек подбирает их наиболее ожидаемую или предпочтительную трактовку;
  6. На основании избранной трактовки человек делает недостоверный вывод об А.

Распознавание ошибки

Обычно данный просчёт в рассуждениях затруднений в своём обнаружении не вызывает — наигранность и искусственность сделанного вывода, как правило, очевидна сразу; более того, ошибку способен обнаружить любой факт, неизвестный ошибающемуся, который практически гарантированно «не впишется» в нарисованную им картину, заставляя его или «перестраивать» уже свой вывод в угоду новым сведениям, или признать свою неправоту. Однако, подготовленный демагог, придавший своей речи убедительности путём добавления в неё других логических ошибок и, главное, проверивший все факты перед «подгонкой», гарантировав себе отсутствие неизвестных ему фактов, способных разоблачить обман, вполне может использовать приём с высокой эффективностью.

В связи с этим, любое утверждение, даже, на первый взгляд, доказанное неопровержимыми фактами, необходимо проверять на наличие в нём данной ошибки путём структурного анализа аргументов, приведённых в подкрепление тезиса, на предмет возможности трактовать их как-либо иначе. Любая обнаруженная возможность неоднозначной и не выходящей за рамки разумных сомнений трактовки приведённых фактов является верным признаком наличия данной ошибки и, как следствие, ложности тезиса.

Примеры ошибки

Первопример

Генерал едет по техасскому городку. Видит — на каждых воротах нарисована мишень, и в каждой единственная дырочка — точно в «яблочке». Генерал останавливается, слезает с коня и спрашивает у старика, сидящего на скамейке:
— Папаша, кто это у вас такой меткий стрелок?
— Это, сэр, Рыжий Билл в стрельбе упражнялся
— Этому парню место в снайперском взводе нашей армии!
— Нет, сэр, он вам не подойдёт
— Почему? Он же такой меткий!
— Понимаете, сэр, он сначала стреляет в ворота, а потом рисует мишень.

— Старый американский анекдот

Примеры в апологетической аргументации

  • Аргумент наблюдаемых чудес (AA310): — Бог существует, и я в этом был убеждён всегда, а недавно он мне это доказал сам! В воскресенье около храма я нашёл на земле его икону, и в тот же день увидел на небе облако в виде его лика! А ночью мне и вовсе приснился сон, где я точно видел его именно таким как на иконе и в небе! Он же сам даёт мне знаки, что он существует! Как можно после этого в него не верить?!
Ответ: — А вам не кажется, что вы просто выдаёте желаемое за действительное? Найти в воскресенье икону около храма вполне ожидаемо ввиду высокой посещаемости этого места людьми, очень вероятно имеющими при себе религиозную атрибутику. Облака в небе же зачастую имеют неправильную форму, и «увидеть» в них можно много разных вещей, в зависимости от собственных мыслей и желаний. Наконец, ваш сон является консистенцией всех дневных переживаний — в том числе, и религиозных, и ваше видение бога в нём вполне обосновано. Не обижайтесь, но как таковых фактов, доказывающих существование бога, ваш опыт, увы, не содержит.

Примеры в паранауке

  • Тезис: — Инструментальная транскоммуникация дарит нам возможность связаться с потусторонним миром посредством обыкновенных бытовых приборов. Вы только вслушайтесь в записи обыкновенного белого шума! Там явно слышны голоса!
Ответ: — Случайные обрывки помех, если не вслушиваться в них, остаются лишь обыкновенными случайными обрывками помех. Услышать некие голоса там можно только если специально их выискивать, будучи убеждённым в том, что данные голоса там действительно есть. Более того, прослушав один и тот же отрывок шума с «голосами», разные люди, зачастую, слышат совсем разные вещи, что также не подкрепляет ваши выводы об их мистическом происхождении.
  • Тезис: — Обыкновенный бытовой принтер распечатал непонятные символы, которые, если их правильно расшифровать, содержат в себе информацию о химическом составе планеты Нибиру. Это же настоящее послание из космоса от внеземного разума![4]
Ответ: — Согласно принципу бритвы Оккама, незачем множить сущности и приплетать внеземные цивилизации к обыкновенному сбою програмного обеспечения, ошибочно распознавшего кодировку текста, предположительно ASCII, как UTF-8, и распечатавшего его в той же кодировке; тем более незачем пытаться «расшифровать» данный текст через одну вам понятную систему. И, да: разве сколь-нибудь разумная цивилизация, действительно пытающаяся выйти на контакт с землянами, станет связываться с человечеством не через каналы правительств ведущих стран мира, а через принтер простой домохозяйки, которой поверит только гонящаяся за сенсациями и не воспринимаемая научным миром всерьёз жёлтая пресса? Давайте будем откровенны: если это сообщение действительно отправили инопланетяне, оно является не подтверждением, а опровержением гипотезы о разумной жизни на Нибиру.

Примеры в здравоохранении

  • Тезис: — Я очень боюсь заболеть страшной болезнью, поэтому постоянно читаю статьи про неё и проверяю состояние своего здоровья. Вчера у меня начала повышаться температура, и вечером она была уже 36,9℃. Я плохо спал, а сегодня, когда я проснулся, я чувствовал сильную усталость, и уже к обеду у меня появилась головная боль и заторможенность! Доктор, скажите… У меня эта болезнь?!
Ответ: — Голубчик мой, скорее уж у вас синдром третьего курса[5], потому как я не только не вижу у вас специфических симптомов этой вашей страшной болезни, так ещё и перечисленные вами симптомы могут относиться едва ли не к каждой второй болезни. Кстати говоря, температура 36,9℃ вечером абсолютно нормальна, а вы здоровы как бык; но своими переживаниями и недосыпанием на этой почве вы своё здоровье подпортить можете. Так что не переживайте, больше не ищите у себя симптомов, и спите спокойно — и головной боли, как сегодня, у вас больше не будет.
  • Тезис: — Почему А такой здоровый? Он вегетарианец! Я сам видел — он покупает в магазине только овощи, а в холодильнике у него никогда не бывает мяса!
Ответ: — Если бы вы понаблюдали за А чуть пристальнее, вы бы увидели, что он питается в столовой, где готовят его любимые котлеты. У него просто не получается готовить мясо. Секрет же его здоровья заключается совсем в другом: соблюдение режима дня, упражнения, отсутствие вредных привычек…

Примеры в политике и экономике

  • Тезис: — Страна Б — очевидно неонацистское государство, явный последователь Третьего Рейха! У них герб, если поменять или додумать некоторые его элементы — та же свастика с орлом; флаг содержит только красный, белый и чёрный, а сам правитель — так вообще вылитый Гитлер, только без усов!
Ответ: — Дай вам волю, вы из всего свастики сделаете, и везде нацистов найдёте. Переделать герб Б так, как вы сказали, ещё надо додуматься, претензия к цветовой гамме флага явно надуманна, а придирка к внешности правителя Б так вообще смехотворна. Более того — что же, интересно, вы скажете про государственный строй Б, делающий неэффективными любые нацистские идеи, про равенство всех наций и рас в том же государстве и, главное, про факт занятия этой страной первого места в мире по миграционному притоку населения? Как-то не вяжутся эти факты с идеями нацизма, честно говоря…
  • Тезис: — Наши отважные воины скоро разгромят боевиков страны В! Месяц назад мы одержали крупную победу под городом Г, две недели назад — остановили наступление врага у разъезда Д, а вчера — так и вовсе разбили многократно превосходящие силы врага у реки Е!
Ответ: — Это, конечно, замечательно, но меня смущает тот факт, что город Г находится на нашей с В границе, разъезд Д — между Г и нашей столицей, а река Е вообще протекает через пригороды этой самой столицы. Как военные В там оказались, если они, по вашим словам, скоро будут разбиты? Вы уверены, что побеждаем здесь именно мы?
  • Тезис: — Курс валюты Ж вот-вот обвалится, и об этом говорит очень много факторов! Например, один миллиардер продал все свои активы в валюте Ж, эмитент Ж объявляет о росте инфляции и повышении процентной ставки, а гадалка Банга и прорицатель Пострадамус, я читал, так и вовсе предрекли полный крах всей банковской системы страны, выпускающей Ж, в этом году!
Ответ: — Миллиардер продал все свои активы ради инвестиции в выгодное предприятие в другой валюте, рост инфляции является контролируемым и планируемым, о чём заявлялось эмитентом Ж ещё пять лет назад, а Банга и Пострадамус вообще не являются авторитетными источниками в данном вопросе. Скажите лучше, у вас есть какое-либо реальное основание полагать, что валюта Ж, являющаяся одной из самых стабильных на протяжении десятилетий валют, вдруг должна потерять свою цену безо всяких веских на то причин?

Сходные ошибки

  • Выдача желаемого за действительное — ошибка, неразрывно связанная с заглавной и основанная на уверенности человека в действительности предмета своих желаний и его склонности выискивать любые подтверждающие её [действительность] сведения и трактовать их в удобном для себя ключе для подтверждения реальности оного [предмета];
  • Систематическая ошибка выжившего — постановка вывода на основании одних лишь имеющихся фактов при отсутствии некоей важной части информации как таковой;
  • Ошибка Карго-культа — постановка вывода на почве одних лишь поверхностных наблюдений за незнакомым процессом и вытекающих из них домыслов без вникания в картину происходящего.

Примечания

  1. Среди них: «Притягивание за уши», «Натягивание совы на глобус», «Шитьё белыми нитками», «Высасывание из пальца», «Подгонка под ответ» и другие.
  2. Возможность подтвердить теорию в рамках контролируемой эмпирической проверки
  3. Возможность опровергнуть теорию в рамках контролируемой эмпирической проверки
  4. В данном примере приведено утверждение, фактически выдвинутое на одной из телепередач, транслировавшейся в эфире российского телеканала РЕН ТВ. Фрагмент для ознакомления доступен по ссылке.
  5. Состояние студентов-медиков, которые убеждены, что больны изучаемыми ими заболеваниями. Название синдрома происходит от того факта, что общие заболевания изучают именно на третьем курсе мединститута.

hero photo

Елена Лебедева

divider

Junior Business Analyst, кандидат экономических наук, методолог образовательных проектов

«Понимание человека, когда он уже пришёл к какой-то мысли… притягивает все вещи для её поддержки и согласования с ней. И хотя существует большое количество и вес аргументов с другой стороны, ими он пренебрегает или презирает, или по каким-то признакам отставляет или отвергает…»

Ф. Бэкон

«Мы говорим совершенно на разных языках!» — такое полное возмущения восклицание можно услышать в повседневном диалоге, когда одна сторона кажется полностью глухой к доводам и аргументам другой стороны. Особенно раздражает, когда собеседник интерпретирует все факты таким образом, чтобы подтвердить только собственные убеждения. Но не торопитесь браться за топор коммуникационной войны, возможно, вы столкнулись с когнитивным искажением — ошибкой техасского стрелка.

Оно получило своё название из анекдота про техасца, который сначала стрелял по амбару, а потом рисовал мишень в том месте, где было больше всего пробоин.

Ошибка техасского стрелка — это частный случай когнитивного искажения, которое связано со склонностью людей подтверждать свою точку зрения. Оно вызвано предрасположенностью человека воспринимать только ту информацию, которая поддерживает и подтверждает его убеждения. Все остальные факты, которые ставят его точку зрения под сомнение или опровергают её, он игнорирует или оспаривает.

Как проявляется это когнитивное искажение

Если у человека есть склонность к подтверждению, обычно он воспринимает информацию по определённому алгоритму:

  • ищет и изучает только ту информацию, которая подкрепляет существующее мнение;
  • интерпретирует факты таким образом, чтобы они поддерживали его точку зрения;
  • запоминает только «нужные» факты и не обращает внимания на то, что противоречит его убеждениям.

Таким образом, человек с этим когнитивным искажением воспринимает только те факты, которые соответствуют его «мишени». Часто он связывает между собой совершенно несвязанные события.

Ключевую роль играет накопленный опыт и эмоциональный отклик на ситуацию: чем больше эмоций, тем меньше логики. Ведь если нам что-то очень нравится (человек, технология, мысль) в силу каких-либо причин, мы будем всячески это защищать, подбирая только аргументы за.

Примеры проявления ошибки техасского стрелка:

  • Ваш коллега абсолютно уверен, что использование технологии Х оправдано в любой ситуации. Ваши попытки привести контраргументы и убедить коллегу в обратном заканчиваются конфликтами.
  • Руководитель уверен, что команда показывает плохие результаты, потому что подчиненные недостаточно умные и компетентные. Попытки подсветить другие причины (организационного, технического или иного характера) он воспринимает в штыки или игнорирует.
  • Заказчик хочет получить не объективный анализ текущего положения дел, а подтверждение своей точки зрения на сложившуюся ситуацию. Честный и объективный анализ, который идёт вразрез с мнением заказчика, будет восприниматься как дилетантство.
  • При работе с заказчиком учитываются только те данные и аналитическая информация, которые соответствуют его запросу и коммерческому предложению, а достигнутые результаты трактуются как желаемые.

Примечательно, что ошибка техасского стрелка часто встречается в различного рода исследованиях, в том числе научных. Например, некая компания Х проводит испытания своего продукта. Но в рекламную кампанию попадут только те результаты, которые подтверждают положительные свойства продукта, а все остальные данные останутся за кадром.

Из-за этой ошибки мышления человек иногда специально ведёт себя определенным образом, чтобы получить «нужный» результат и пополнить свою копилку искаженных фактов. Например, некорректно используя какой-либо фреймворк, он будет каждый раз убеждаться в том, что этот фреймворк «не работает».

Ошибка техасского стрелка мешает принимать взвешенные решения и профессионально развиваться, потому что из-за этой ошибки мышления:

  • игнорируются новые инструменты и технологии;
  • принимаются неэффективные управленческие решения;
  • возникают сложности коммуникаций в команде.

Люди, подверженные этому когнитивному искажению, не всегда готовы вести конструктивный диалог и прислушиваться к мнению со стороны. Им гораздо проще продолжать жить со старым убеждением, чем встать на тропу изменений.

Признавать неправоту сложно, потому что это заставляет меняться:

  • изучать информацию, которая находится за пределами существующего убеждения, анализировать ее, формировать новое суждение (например, начать изучать и применять новую технологию);
  • менять свое поведение и работать над собой (например, когда человек осознает, что он сам был источником проблемы); нести ответственность за свои поступки;
  • переосмысливать парадигму сложившейся картины мира, если искажение сильно повлияло на человека.

Но, как вы знаете, наш мозг очень не любит тратить энергию и всячески пытается ее сберечь, поэтому от этого искажения особенно сложно избавиться.

Что делать, если вы столкнулись с ошибкой техасского стрелка

В зависимости от цели коммуникации можно выбрать разные стратегии: от осознанного поддержания правоты человека до избегания общения с ним по спорному вопросу. В ситуации, когда нужно прийти к общему знаменателю, можно попробовать следующие приёмы:

  • Попросите собеседника изложить своё понимание ситуации. После этого задайте наводящие вопросы, которые подсветят неточность суждений собеседника и помогут ему как бы самому прийти к другой точке зрения.
  • Попросите собеседника поставить себя на место человека с другой точкой зрения. Это позволит найти компромиссное решение.

Эти приёмы могут сработать, если собеседник изначально настроен на конструктивный диалог. Если он не готов к подобным беседам, можно попробовать договориться сделать что-то вместе, например, использовать инструмент Х на проекте. Тогда личным примером можно показать, как это работает на практике, и изменить мнение у оппонента.

Если вы заметили такое искажение у себя, мои поздравления! Вы явно способны к самоанализу и саморазвитию. Вы на правильном пути.


Когнитивные искажения не существуют сами по себе. Они часть целого механизма восприятия и обработки информации, который работает в конкретных социально-экономических условиях и определен жизненным опытом конкретного человека. Поэтому стоит рассматривать проявления ошибки техасского стрелка вместе с ситуацией, в которой оно возникло, и особенностями человека, который подвержен этому искажению.

В следующих статьях мы продолжим разбирать когнитивные искажения с примерами из IT.

Ошибка меткого стрелка: причина vs следствие


и

Психолог, гештальт-терапевт. Консультирует с 2015 года


  1. В чем ошибка меткого стрелка?
  2. Как бороться с этой ловушкой мышления?

Ошибка меткого стрелка, или как ее иногда называют, ошибка техасского стрелка, – интересное когнитивное искажение (ловушка мышления), которое находит достаточно частое «применение» в нашей жизни. Рассмотрим, в чем оно заключается и что с ним делать.

В чем ошибка меткого стрелка?

Название ошибки происходит от анекдота про техасца, который якобы сначала стрелял, а потом рисовал мишень вокруг стрел так, чтобы каждая была точно в яблочко. На практике данная ловушка мышления заключается в том, что, рассматривая какой-либо вопрос, мы принимаем во внимание только те факты, что вписываются в нашу теорию или объяснение происходящего, подходят нашим рассуждениям, а остальные отбрасываем. В более узком варианте – когда мы берем сходные данные, подходящие под некую закономерность, а те, что в нее не укладываются, игнорируем.

Другое когнитивное искажение, при котором рассмотрение только части данных приводит к неверным выводам и которое также часто встречается в реальной жизни, – систематическая ошибка выжившего.

Один из самых ярких примеров, иллюстрирующих ошибку стрелка, – предсказания. Постфактум из множества предсказаний одного или нескольких ясновидящих всегда можно найти несколько сбывшихся или почти сбывшихся – и за счет этого поверить в силу предсказателя: якобы он действительно знал будущее наперед. Или же можно подобрать к сказанным в прошлом метафорическим фразам такие «ключи», которые объяснят те или иные события – но лишь тогда, когда они уже произойдут.

Ошибка меткого стрелкаПочему провести «анализ» таких предсказаний можно только после того, как они свершатся? Потому что до этого вы просто не знаете, что и как именно интерпретировать, чтобы выстроить правдоподобное объяснение. Но по логике предсказания работают наоборот: они должны говорить о будущем, а не оправдываться, когда все уже произошло. Именно так мы и попадаем в ловушку мышления стрелка, который сначала стрелял, а потом рисовал мишень. Иными словами, мы меняем местами то, что должно быть до (предсказание, объясняющее будущее событие) и после (само событие), чтобы доказать теорию («Этот предсказатель знает будущее»).

Другой пример – нахождение взаимосвязи там, где ее нет. Например, популярно мнение, что високосные года тяжелее невисокосных. В подтверждение приводятся несчастья, которые случались в года, когда отмечается 29 февраля. Проблема только в том, что, к сожалению, и в другие года случается так же много несчастий. Но в «выборку» попадает только часть данных, остальные игнорируются.

Ошибка стрелка - ловушка мышленияВ целом эта ошибка рассказывает далеко не только о теориях заговора, предсказаниях или приметах. На самом деле аналогичное искажение может возникнуть как быту, так и на работе – в самых разных ситуациях, когда мы строим какую-либо теорию или выстраиваем взаимосвязь. Например, что окончание престижного вуза гарантирует получение высокооплачиваемой работы. Да, можно найти множество примеров, где это предположение сработало. Но также существует множество примеров, где оно не сработало. Таким образом, сам по себе диплом престижного вуза еще не гарант высокой зарплаты.

Аналогично для анализа проекта клиента и выстраивания стратегии работы можно взять только те статистические данные, которые впишутся в ваш план. А потом можно сказать, что достигнутые результаты – это и есть на самом деле то, чего вы хотели добиться (то есть нарисовать мишень вокруг стрелы).

Тренируйте память, внимание и другие софт-скиллс на Викиум.ру

Викиум

Что делать с ошибкой стрелка?

Прежде всего, стоит помнить, что когнитивные искажения возникают непредумышленно – поэтому они и называются ловушками мышления. Это особенность работы мозга, которую не всегда просто отследить. Однако данную ошибку, как и другие, можно исправить, если контролировать себя. Например, анализируя ту или иную теорию или причинно-следственную связь, старайтесь проверять себя – точно ли все факты рассмотрены? Все ли они вписываются в теорию? Если не все, то почему?

Как правило, чем больший эмоциональный отклик находит теория, тем чаще логика уходит на второй план, и мы подвластны большему количеству когнитивных искажений. Иными словами, если теория нам нравится, мы не доказываем ее, а стараемся подогнать под нее факты, игнорируя то, что грозится ее разрушить. Следите за причинно-следственной связью: сначала собирайте факты, потом стройте теорию, а не наоборот.

Как говорил Конан-Дойль устами Шерлока Холмса, «теоретизировать, не имея данных, значит совершать грубейшую ошибку. Незаметно для себя человек начинает подгонять факты к своей теории, вместо того чтобы строить теорию на фактах».

Также важно помнить два постулата:

  • если события А и Б произошли в одно и то же время, это еще не значит, что они связаны;
  • если Б произошло после А, это еще не значит, что А послужило причиной Б.

Нам свойственно выстраивать причинно-следственные связи, потому что это снижает уровень хаоса и повышает чувство контроля (в том числе тех вещей, которые мы контролировать априори не можем). Однако на самом деле некоторые события и факты – не более чем совпадения. О них расскажет и другая ошибка – ошибка игрока.


Поделиться статьей:


Понравилась статья? Поделить с друзьями:

Читайте также:

  • Ошибка тестирования код 887601c2
  • Ошибка тестирования код 8876017c video memory stress test
  • Ошибка тестирования данная возможность недоступна для вашего устройства es проводник
  • Ошибка теста клеар блю
  • Ошибка тесо 334

  • 0 0 голоса
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest

    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии