От zero1975
К Udaff
Дата 17.03.2023 18:12:37
Рубрики Прочее; Современность;

Re: Прекрасный пример

>В британском флоте, равно как в любом другом, не предусмотрели мгновенного разрушения всей валолинии, со всеми сопутствующими. Предусмотривали бы - были бы и конструктивные меры защиты, и отработка на учениях.

Произошла нестандартная ситуация. На корабле экипаж из живых людей, обладающий, по-вашему, "творческим подходом" к борьбе за живучесть. Корабль затонул.
Вы что сказать-то хотели, приводя этот пример?

>Не, это вы приведите. Подняли тему вероятностей, вам и раскрывать ее.

"Иного ответа я и не ждал от приличного человека" (c) Даун-Хаус.

Вот вам примеры только с одним из человеческих факторов - с паникой и желанием жить:

1917 год. Взрыв военного транспорта "Монблан".
"... Для спасения горящего и взрывоопасного корабля в распоряжении его капитана были две меры: первая — дать полный ход, чтобы хлынувшей в пробоину водой залить взрывчатые вещества, вторая — затопить корабль ... На корабле началась паника. Экипаж в полном составе (40 человек) самовольно покинул корабль, за ним последовал капитан. Были спущены шлюпки, и личный состав покинутого корабля во главе со своим капитаном быстро устремился к берегам Дартмута в поисках безопасного места..."

1944 год. Опрокидывание эсминцев Эсминцы "Халл" и "Монагхэм" во время тайфуна.
"... Причину опрокидывания кораблей видят в том, что корабли, имея порожние топливные цистерны, не забалластировались для компенсации сниженной остойчивости. Кроме того, на этих кораблях плохо обстояло дело с борьбой за живучесть. Так, например, личный состав в панике оставил свои посты в машинных отделениях, и корабли оказались практически без движения..."

1954 год. Взрыв гидросистемы на авианосце "Беннингтон".
"...борьба с пожаром проходила неорганизованно, в обстановке паники и общей растерянности..."

1956 год. Пожар в машинно-котельном отделении авианосца "Саратога".
"... началась паника в страхе перед возможным распространением пожара в зону расположения атомных боеприпасов..."

1966 год. Пожар в ангаре авианосца "Орискани".
"... В панике матрос бросил дымящую ракету в ящик, наполненный 700 ракетами, а затем включил спринклерную систему, надеясь погасить таким образом огонь, что, естественно, возымело обратное действие, так как вода в контакте с горящим магнием освобождает летучий водород. Это свойство магния либо было забыто матросом, либо он его вовсе не знал. В результате на корабле возник пожар..."

Последний случай - типичный пример "творческого подхода" к борьбе за живучесть.

>Разумеется я такого тезиса не выдвигал. Я про другое - роботов действующие строго по алгоритму, без возможности импровизировать, к борьбе за живучесть допускать нельзя.

Примеры того, как "человеческий фактор" мешал борьбе за живучесть - я привел. Жду от вас хотя бы равное число примеров, когда спасению корабля способствовали не отработанные до автоматизма действия экипажа, а "творческий подход".

От Udaff
К zero1975 (17.03.2023 18:12:37)
Дата 17.03.2023 19:16:50

Re: Прекрасный пример

>Жду от вас хотя бы равное число примеров, когда спасению корабля способствовали не отработанные до автоматизма действия экипажа, а "творческий подход".

Вот кстати пример - когда в 2000 г. подвзорвали эсминец "Коул", в какой-то момент ликвидации последствий в борту пробили дыру и стали через нее сливать поступающую воду.

От zero1975
К Udaff (17.03.2023 19:16:50)
Дата 17.03.2023 20:18:43

Re: Прекрасный пример

>Вот кстати пример - когда в 2000 г. подвзорвали эсминец "Коул", в какой-то момент ликвидации последствий в борту пробили дыру и стали через нее сливать поступающую воду.

Простите, но в приведенном вами примере нет "творчества" - это простое решение банальной технической задачи. Здесь нет того, что можно было бы назвать изобретением. Как раз с такого рода задачами вполне справится алгоритм типа ChatGPT - примеры с сообщающимися сосудами или со сверлением/пробитием отверстия для вывода трубы наружу он в своей базе найдет (разумеется, если база будет достаточно велика).

Точно также нет творчества в сооружении новой системы охлаждения реактора на К-19. Героизм есть, а творчества нет - простой алгоритм: проблема в нагревании -> перебор способов охлаждения -> для способа пролива перебор доступных отверстий -> перебор доступных насосов -> построение гидравлической схемы. Это не творчество - это компиляция из известных решений, а это и есть специфика ChatGPT и ему подобных.

Возможно, вы этого не поняли, но топикстартер (хоть он и слишком категоричен в своих суждениях) говорит именно об этой проблеме - слишком многое из того, что считалось творчеством - на самом деле никакого отношения к творчеству не имеет, т.к. результат получается простой компиляцией известных решений. И ChatGPT наглядно это показывает.

От Udaff
К zero1975 (17.03.2023 20:18:43)
Дата 17.03.2023 21:54:14

Re: Прекрасный пример

>Простите, но в приведенном вами примере нет "творчества" - это простое решение банальной технической задачи. Здесь нет того, что можно было бы назвать изобретением.

Творчество при решении технических задач зачастую состоит как раз из компиляции уже известных элементов в что-то новое. И вроде ничего сложного и изобретать ничего не надо, но почему-то сильно не всем это удается.

>Как раз с такого рода задачами вполне справится алгоритм типа ChatGPT - примеры с сообщающимися сосудами или со сверлением/пробитием отверстия для вывода трубы наружу он в своей базе найдет (разумеется, если база будет достаточно велика).

На тот момент такового готового решения, пробить дыру прям рядом с уже имеющейся дырой от взрыва, в наставлениях не было, это сейчас есть, по итогам спасения "Коула". Так что окажись на месте людей робот, эсминец бы утонул.

От tramp
К Udaff (17.03.2023 21:54:14)
Дата 17.03.2023 23:35:09

Re: Прекрасный пример

>На тот момент такового готового решения, пробить дыру прям рядом с уже имеющейся дырой от взрыва, в наставлениях не было, это сейчас есть, по итогам спасения "Коула". Так что окажись на месте людей робот, эсминец бы утонул.
Сходим образом люди в 1942-м утопили Нормандию..

От zero1975
К Udaff (17.03.2023 21:54:14)
Дата 17.03.2023 22:23:37

Re: Прекрасный пример

>>Простите, но в приведенном вами примере нет "творчества" - это простое решение банальной технической задачи. Здесь нет того, что можно было бы назвать изобретением.

>Творчество при решении технических задач зачастую состоит как раз из компиляции уже известных элементов в что-то новое. И вроде ничего сложного и изобретать ничего не надо, но почему-то сильно не всем это удается.

Зафиксируем, что у нас вами разное понимание "творчества". Спорить о терминах смысла нет - достаточно сказать, что "компиляция уже известных элементов в что-то новое" - это и есть специфика работы ChatGPT. И вы правы - если говорить о кожаных, то "почему-то сильно не всем это удается". А вот нейросетям - удается. Так с чем вы спорите?


>>Как раз с такого рода задачами вполне справится алгоритм типа ChatGPT - примеры с сообщающимися сосудами или со сверлением/пробитием отверстия для вывода трубы наружу он в своей базе найдет (разумеется, если база будет достаточно велика).

>На тот момент такового готового решения, пробить дыру прям рядом с уже имеющейся дырой от взрыва, в наставлениях не было, это сейчас есть, по итогам спасения "Коула". Так что окажись на месте людей робот, эсминец бы утонул.

Если вы ограничиваете базу данных робота наставлениями по борьбе за живучесть - так и будет. Если база данных будет более широкой, то нет. Или вы хотите сказать, что никто и никогда не пробивал отверстий для слива воды?

От Udaff
К zero1975 (17.03.2023 18:12:37)
Дата 17.03.2023 19:02:11

Re: Прекрасный пример

>Вы что сказать-то хотели, приводя этот пример?

На ВиФе наверное два zero1975, один просил привести примеры нестандартных ситуаций, которые не отрабатывают, другой теперь недоумевает зачем приводить таковой пример.

>"Иного ответа я и не ждал от приличного человека" (c) Даун-Хаус.

Бремя доказательства лежит на утверждающем, как-то так.

>Примеры того, как "человеческий фактор" мешал борьбе за живучесть - я привел.

А кто-то просил таковые примеры ?

От zero1975
К Udaff (17.03.2023 19:02:11)
Дата 17.03.2023 20:40:37

Re: Прекрасный пример

>На ВиФе наверное два zero1975, один просил привести примеры нестандартных ситуаций, которые не отрабатывают, другой теперь недоумевает зачем приводить таковой пример.

Вроде бы очевидно, что разговор шел о возможности замены человека условным "роботом". Вы предположили что для целей БЗЖ нужен робот, способный справляться с нестандартными ситуациями. Я просил привести примеры нестандартных ситуаций. Вы в ответ привели такую ситуацию, с которой любой "робот" справился заведомо не хуже, чем реальный экипаж "Принс оф Уэлс". Где логика?

>>"Иного ответа я и не ждал от приличного человека" (c) Даун-Хаус.

>Бремя доказательства лежит на утверждающем, как-то так.

Вы утверждали: "роботов действующие строго по алгоритму, без возможности импровизировать, к борьбе за живучесть допускать нельзя". Берётесь доказать свое утверждение хотя бы для роботов с "интеллектом", сводящимся к компилированию известных решений на основе большой базы данных (типа того же ChatGPT)?

>>Примеры того, как "человеческий фактор" мешал борьбе за живучесть - я привел.

>А кто-то просил таковые примеры ?

Вы и просили: "Не, это вы приведите" - не ваши слова?
Я вам привел 5 примеров, когда "человеческий фактор" сработал в минус, включая примеры с катастрофическими последствиями.

От Udaff
К zero1975 (17.03.2023 20:40:37)
Дата 17.03.2023 22:06:40

Re: Прекрасный пример

>Вы в ответ привели такую ситуацию, с которой любой "робот" справился заведомо не хуже, чем реальный экипаж "Принс оф Уэлс". Где логика?

Вы просили ситуацию, не предусмотренную в наставлениях, а не ситуацию, с которой бы можно было справиться. Если же все что не укладывается в наставления считается заведомо нерешаемым и лучше побыстрее покинуть корабль - это прекрасно, да.

>Вы утверждали: "роботов действующие строго по алгоритму, без возможности импровизировать, к борьбе за живучесть допускать нельзя". Берётесь доказать свое утверждение хотя бы для роботов с "интеллектом", сводящимся к компилированию известных решений на основе большой базы данных (типа того же ChatGPT)?

См. ниже про "Коул". Робот действующий по алгоритму не нашел бы нужного решения.

От tramp
К Udaff (17.03.2023 22:06:40)
Дата 17.03.2023 23:32:33

Re: Прекрасный пример

>Если же все что не укладывается в наставления считается заведомо нерешаемым и лучше побыстрее покинуть корабль - это прекрасно, да.
В нынешних условиях вполне возможно и спроектировать корабль и составить наставления под него таким образом, чтобы с рациональной т.з., учитывающей все факторы, включая цену подготовки нового экипажа взамен потерянного и возмещение потерь родственникам, чего в целом придерживаются ВМС США, что при проверке экспертной системой чек-листа состояния корабля в онлайн-режиме было заранее выдано предписание экипажу покинуть корабль ввиду бесполезности его спасения, ведь помимо предотвращения его утопления, потребуется вернуть корабль на передовую базу, где его смогут хоть бы починить для перегона на ремонт на основную верфь, а это может быть проблематичным, собственно смотрим судьбу Шеффилда и это без влияния противника.
>См. ниже про "Коул". Робот действующий по алгоритму не нашел бы нужного решения.
Для начала робот мог просто расстрелять приближающуюся лодку с ВВ, ну а затем действовать в автоматизированном режиме, перекрывая все отсеки и включая пожаротушение и водооткачку, что здесь сложного, даже у нас подобные системы реализуются, достаточно вспомнить случай на К-152..

От zero1975
К tramp (17.03.2023 23:32:33)
Дата 18.03.2023 00:38:50

Уточню:

>Для начала робот мог просто расстрелять приближающуюся лодку с ВВ,

Вот именно это - не мог бы. Прямой запрет был бы прописан в программе:

"The destroyer's rules of engagement, as approved by the Pentagon, forbade guards to fire upon the small boat (which was not known to be loaded with explosives) without permission from Cole's captain or another officer.

Petty Officer John Washak said that right after the blast, a senior chief petty officer ordered him to turn an M-60 machine gun on Cole's fantail away from a second small boat approaching. "With blood still on my face", he said, he was told: "That's the rules of engagement: no shooting unless we're shot at." He added, "In the military, it's like we're trained to hesitate now. If somebody had seen something wrong and shot, he probably would have been court-martialed." Petty Officer Jennifer Kudrick said that if the sentries had fired on the suicide craft, "we would have gotten in more trouble for shooting two foreigners than losing seventeen American sailors."


Перевод:

Правила применения оружия на эсминце, утвержденные Пентагоном, запрещали караульным открывать огонь по маленькой лодке (которая, как известно, не была начинена взрывчаткой) без разрешения командира "Коула" или другого офицера.

Старшина Джон Уошак рассказал, что сразу после взрыва старший старшина приказал ему развернуть пулемет М-60 на ходовом мостике "Коула" в сторону приближающейся второй маленькой лодки. "С кровью на лице", - сказал он, на что получил ответ: "Таковы правила ведения боя: не стрелять, пока по нам не откроют огонь". Он добавил: "В армии нас учат колебаться. Если бы кто-то увидел что-то неладное и выстрелил, он, вероятно, попал бы под трибунал". Старшина Дженнифер Кудрик сказала, что если бы караул открыл огонь по судну-смертнику, "у нас было бы больше проблем из-за того, что мы застрелили двух иностранцев, чем из-за потери семнадцати американских моряков".


От writer123
К zero1975 (18.03.2023 00:38:50)
Дата 18.03.2023 14:58:16

Re: Уточню:

>Правила применения оружия на эсминце, утвержденные Пентагоном, запрещали караульным открывать огонь по маленькой лодке (которая, как известно, не была начинена взрывчаткой) без разрешения командира "Коула" или другого офицера.

>Старшина Джон Уошак рассказал, что сразу после взрыва старший старшина приказал ему развернуть пулемет М-60 на ходовом мостике "Коула" в сторону приближающейся второй маленькой лодки. "С кровью на лице", - сказал он, на что получил ответ: "Таковы правила ведения боя: не стрелять, пока по нам не откроют огонь". Он добавил: "В армии нас учат колебаться. Если бы кто-то увидел что-то неладное и выстрелил, он, вероятно, попал бы под трибунал". Старшина Дженнифер Кудрик сказала, что если бы караул открыл огонь по судну-смертнику, "у нас было бы больше проблем из-за того, что мы застрелили двух иностранцев, чем из-за потери семнадцати американских моряков".


В эту игру вообще можно играть вдвоём. Когда беспилотных лодок-смертников будет десяток.

От zero1975
К writer123 (18.03.2023 14:58:16)
Дата 18.03.2023 19:12:21

Re: Уточню:

>В эту игру вообще можно играть вдвоём. Когда беспилотных лодок-смертников будет десяток.

О чем вы вообще?
Я лишь показал, что на Коуле не могли открыть огонь по лодке, т.к. это было прямо запрещено инструкцией. И будь там вместо людей сколь угодно совершенные роботы - точно такой же запрет был бы прописан в их ПО.

От writer123
К zero1975 (18.03.2023 19:12:21)
Дата 18.03.2023 19:40:30

Re: Уточню:

>О чем вы вообще?
О том, что заменив смертников простенькой электроникой - можно массировать атаку и человек просто не сможет её отразить физически, независимо от наличия разрешений.

От zero1975
К writer123 (18.03.2023 19:40:30)
Дата 18.03.2023 19:46:32

Re: Уточню:

>О том, что заменив смертников простенькой электроникой - можно массировать атаку и человек просто не сможет её отразить физически, независимо от наличия разрешений.

Камикадзе не проводили массированных атак?
Люди их не отражали?

От writer123
К zero1975 (18.03.2023 19:46:32)
Дата 18.03.2023 21:09:01

Re: Уточню:

>Камикадзе не проводили массированных атак?
>Люди их не отражали?

Проводили, когда-то отражали, когда-то нет. Какое это имеет значение, речь о том что сейчас куда проще тиражировать технические средства с ИИ, чем смертников.

От Slick
К writer123 (18.03.2023 21:09:01)
Дата 18.03.2023 21:49:27

Re: Уточню:

>>Камикадзе не проводили массированных атак?
>>Люди их не отражали?
>
>Проводили, когда-то отражали, когда-то нет. Какое это имеет значение, речь о том что сейчас куда проще тиражировать технические средства с ИИ, чем смертников.
Зачем ИИ? 10 х-55 вполне прилетают. Ну или х-32 для флотских

От writer123
К Slick (18.03.2023 21:49:27)
Дата 18.03.2023 23:13:24

Re: Уточню:

>Зачем ИИ? 10 х-55 вполне прилетают. Ну или х-32 для флотских

Ну это уже детали. Панцирь тоже в цель попадает без ИИ, а тем не менее об обороне от лодок террористов разговор в ключе ИИ. Опять же это собирательное название области знаний.

От tramp
К writer123 (18.03.2023 23:13:24)
Дата 18.03.2023 23:26:12

Re: Уточню:

>>Зачем ИИ? 10 х-55 вполне прилетают. Ну или х-32 для флотских
>
>Ну это уже детали. Панцирь тоже в цель попадает без ИИ, а тем не менее об обороне от лодок террористов разговор в ключе ИИ. Опять же это собирательное название области знаний.
Кстати ИИ, при наличии такой системы, может наблюдать за окружающей обстановкой получше всяких вахтенных, при наличии соответствующих технических средства безусловно, выявлять вновь появившиеся объемы и на основе анализа их движения выдавать рекомендации экипажу на предмет повышенного внимания к таким объектам и предложения по дальнейшим действиям, тот же LRAD к примеру применить для предупреждения..

с уважением

От writer123
К tramp (18.03.2023 23:26:12)
Дата 22.03.2023 01:27:53

Re: Уточню:

>Кстати ИИ, при наличии такой системы, может наблюдать за окружающей обстановкой получше всяких вахтенных, при наличии соответствующих технических средства безусловно, выявлять вновь появившиеся объемы и на основе анализа их движения выдавать рекомендации экипажу на предмет повышенного внимания к таким объектам и предложения по дальнейшим действиям, тот же LRAD к примеру применить для предупреждения..

Несомненно. Единственное - сложности с принятием решения в мирной обстановке. В боевой это ограничение отсутствует.

От tramp
К writer123 (22.03.2023 01:27:53)
Дата 24.03.2023 14:32:22

Re: Уточню:

>Несомненно. Единственное - сложности с принятием решения в мирной обстановке. В боевой это ограничение отсутствует.
Поэтому и написал о LRAD, ну или иной аналогичной системе, хотя бы громкой связи, чтобы иметь возможность сепарировать неумышленные действия от целенапаравленных с расчетом на ущерб.

с уважением

От tramp
К writer123 (18.03.2023 14:58:16)
Дата 18.03.2023 16:56:53

Re: Уточню:

>В эту игру вообще можно играть вдвоём. Когда беспилотных лодок-смертников будет десяток.
В последние годы сектор противокатерных артиллерийских установок был на подъеме...

с уважением

От zero1975
К Udaff (17.03.2023 22:06:40)
Дата 17.03.2023 22:43:47

Re: Прекрасный пример

>>Вы в ответ привели такую ситуацию, с которой любой "робот" справился заведомо не хуже, чем реальный экипаж "Принс оф Уэлс". Где логика?

>Вы просили ситуацию, не предусмотренную в наставлениях, а не ситуацию, с которой бы можно было справиться.

Мы пошли по кругу. Еще раз: вы привели в пример ситуацию, с которой "робот" заведомо не мог бы справится хуже людей. Каким образом этот пример может доказать, что "роботов действующие строго по алгоритму, без возможности импровизировать, к борьбе за живучесть допускать нельзя"? Пусть даже с вашим пониманием алгоритмов. Что, робот справился бы хуже?

>>Вы утверждали: "роботов действующие строго по алгоритму, без возможности импровизировать, к борьбе за живучесть допускать нельзя". Берётесь доказать свое утверждение хотя бы для роботов с "интеллектом", сводящимся к компилированию известных решений на основе большой базы данных (типа того же ChatGPT)?

>См. ниже про "Коул". Робот действующий по алгоритму не нашел бы нужного решения.

По какому "алгоритму"? Ладно, давайте пошагово.
Сформулируйте частную техническую задачу, которую надо было решить на борту Коула, и которую, по-вашему, не мог бы решить условный "робот" (а то, может, я чего-то не понимаю).