January 15th, 2020

2017

Pour la Science № 501

Если поместить более лёгкую жидкость под более тяжёлую, то лёгкая жидкость всплывёт наверх — это понятно. Если жидкости достаточно вязкие, то будут образовываться капли всплывающей лёгкой жидкости — опять же, все мы, наверное, видели лавовые лампы с такими каплями. При этом капли получаются достаточно затейливой формы. А тут пишут, что тот же эффект наблюдается и с песком, к которому очень сложно применить такие понятия как «сила Архимеда» или «поверхностное натяжение».

Статья о том, как сложно людям довериться в каких-то вопросах машине, как пытаются они добиться (требовать) 100% безошибочного принятия решения. Известная всем ситуация с автоматическими водителями: одного несчастного сбитого велосипедиста было достаточно, чтобы все обеспокоились возможностью ошибки робота, при этом всем прекрасно известно, что люди-водители сбивают тех же велосипедистов с куда большей вероятностью.
Но это и так известно, автор развивает эту тему.
Кто доверит автоматическому пилоту? Точнее даже, кто сядет в полностью автоматический самолёт, без пилота, без возможности управлять им на расстоянии? Простой опрос общественного мнения показывает, что люди не согласны лететь в роботе-самолёте, даже если он будет иметь меньшую вероятность аварии. Похоже, что нам страшна сама ситуация, когда холодный робот объявляет «я тут посчитал, других вариантов нет, сейчас вы умрёте» — вместо суетящегося человеческого пилота, который до последней секунды будет стараться вытянуть безнадёжный самолёт.
Кто согласится, чтобы его судил робот вместо живого судьи или присяжных? Аналогично, всем страшно, что важные подробности лично его дела не будут приняты во внимание. В то время, как простые исследования показывают, что человеческим судьям тоже на нас наплевать — в конце рабочего дня и непосредственно перед обеденным перерывом судьи принимают решения существенно быстрее, причём с большим процентов обвинений / отказов в пересмотре.
Под конец автор пытается увидеть в этой технофобии технофилию: может это мы настолько уверены, что роботы смогут делать работу лучше нас, и поэтому требуем от них то, что для человека просто невозможно? :-)

Я, наконец-то, понял, почему на Sainte-Sulpice висит табличка с именем Перека — в том кафе он написал книгу о том, что происходило вокруг него. Описание книги настолько сюрреалистическое, что её хочется немедленно прочитать. Более того, по ней ещё и фильм смогли снять!


Ещё одна статья о моделировании движения толпы.

Автор пишет, что при встрече двух плотных потоков пешеходов достаточно быстро формируется поток в одну сторону и поток в другую. И что ориентация этого потока хорошо коррелирует с ориентацией автомобильного движения в этой стране. Кроме Великобритании, где машины ездят слева, а люди таки ходят справа (нам с Анютой при этом в Лондоне казалось, что люди ходят слева; по крайней мере, чаще, чем в Париже) — видимо из-за европейского контекста, когда во всех соседних странах ездят и ходят справа.

А ещё автор описывает эксперименты, показывающие, как малое количество людей, идущих не со средней скоростью толпы, существенно тормозит общий поток. Кто-то идёт медленнее и тормозит всех, а кто-то пытается обгонять и разрушает потоки.

В животном мире автор рассказывает о муравьях, которые организуют свои «трассы» так, что в центре потока с постоянной скоростью идут груженные муравьи, а по периферии навстречу им идут порожние — их выгоднее оставлять на периферии, потому что скорости у них могут быть самые разные, сбоку потока они всегда могут обгонять других, не тормозя встречный поток. И вроде как современные железнодорожные вокзалы планируют именно таким образом.
В этом месте я вспомнил, как в конце 1990-х я регулярно попадал в пешеходную пробку на метро «Выхино», когда встречались два потока, и каждый останавливался плотной толпой, оставляя для проходя встречных очень узкую полосу. В какой-то момент поставили физический разделитель потоков, и скорость прохода увеличилась в разы — прекрасный пример, когда самоорганизация крайне, казалось бы, локальной проблемы совершенно не работает.

Ещё автор описывает классические эксперименты о том, как в случае экстренной эвакуации большого количества народа через узкий выход (концертный зал, например) около выхода может возникнуть давка. И что люди научились создавать такие преграды перед выходом, которые не позволяют сформироваться пробке — условно говоря, колонна прямо перед дверью может существенно ускорить эвакуацию. При том, что все будут ругать поставившего её туда архитектора.
Только что вот вернулись с лыж, и там на половине подъёмников стоят такие «преграды» непосредственно перед воротами с конктролем ski-pass. Где-то мусорка, где-то — шкаф с монитором. И все вокруг реально ругаются — идиоты! не могли поставить мусорку не прямо посередине прохода! из-за них мы тут стоим, толкаемся!!1

А под конец автор цитирует работу других учёных, которые попытались проанализировать поведение толпы в виртуальном пространстве. Конкретнее: как распространяются новости в социальных сетях. И вроде как распространение «правдивых новостей» сильно отличается от рапространения «ложных новостей». Настолько, что по тому, как распространяется новость можно понять, насколько она ложная. Мне кажется, это очень странная и страшная тема. С одной стороны, я не вижу причин не верить алгоритму в такой уже базовой задаче как обучение с подкреплением (в качестве подкрепления у них была внешняя команда факт-чекинга). С другой стороны (и вот здесь уместно перечитать параграф о доверии к машинам и алгоритмам), почему-то кажется, что такие системы не могут не облажаться. Как минимум, их создание и эксплуатация могут привести к изменению шаблонов поведения. Настолько сильному изменению, что результат их деятельности перестанет быть пертинентным.
Как когда-то, в самом начале попыток регулирования трафика, чтобы избежать пробок: объявление «чёрного дня» на дорогах с указанием запасных вариантов как выехать из Парижа могло привести к тому, что все ехали по запасным дорогам — в итоге основная дорога была пустой, а все стояли в пробках на второстепенных дорогах.