RuBronyCon'18: Благотворительный аукцион. Информация для посетителей

+113
в блоге IRL Connection
Когда миром правят злодеи, не очень-то и пожульничаешь — кара будет слишком жестокой. Куда же черным армиями без дисциплины? Вот и приходится Флиму с Флэмом заниматься честным делом. И даже, учитывая тяжесть грехов, благотворительным.

Пришло время рассказать об аукционе в рамках «РуБрониКона'18»… и задать в связи с этим важный вопрос.

Да, мы вновь решили сменить старые традиции. На этот раз часть денег с аукциона пойдет на поддержку некоего проекта, делающего доброе дело для нас всех.

Какое именно? А вот тут нам нужна твоя помощь!

Есть два проекта, среди которых мы не можем выбрать тот, в который вложим вырученные деньги. Мы предлагаем выбрать тебе.

  • Первый вариант — «ЭквиХелп» (http://www.equihelp.org), приют для лошадей, которым грозит убой или нужна срочная помощь, а также отдает выхоженных лошадок в хорошие руки. За пятнадцать лет работы организация вылечила и пристроила уже несколько сотен лошадей.
  • Второй вариант — «Foundational Research Institute» (https://foundational-research.org), международная научная организация, которая старается предвосхитить проблемы развития науки и подготовить базу для их решения заранее. В данный момент FRI изучает проблематику создания искусственного интеллекта — как вопросы морально-этического толка, так и подходы к обеспечению безопасности. Грубо говоря, если роботы захотят убить всех человеков, пинать следует этих ребят.

Что же, наука или лошади? Мы не смогли сделать свой выбор, и теперь он за тобой.

Выбирай с умом!


Напоминаем, что, мероприятие пройдет 24 ноября 2018 года в конгресс-центре отеля «Вега» Измайлово по адресу: Москва, Измайловское шоссе 71, 3В, метро Партизанская и МЦК Измайлово, и 25 ноября, в клубе «ТеатрЪ» по адресу: метро Багратионовская, ул. Барклая, д. 6, стр 2.

Наша группа вконтакте: vk.com/rubronycon
Наш твиттер: twitter.com/rubronycon
Наш сайт: rubronycon.ru
Наш Discord: discord.gg/4ybVDsT

328 комментариев

Зло в раздумьях
Knyazushka
+3
Зло в раздумьях
Семантически воспринимается аналогично словосочетанию «дьявол в деталях». Раздумья — действительно зло. Нужно делать выбор. Рекомендую пункт 1. Запад богат, на исследования и без нас насобирает. Лучше в наших палестинах спасти каких-нибудь чистопородных животных, пока последних не забили.
VIM
+7
dell
Boshy Изменён автором
0
А почему не разделить выручку на оба проекта?
brass-cheetah
+2
Боюсь что суммы будут немного не те)
Knyazushka
+2
Ну тогда я за лошадей, примерно по той же причине, что и VIM + из-за курса валют, помощь международным организациям будет как капля в море. А для приюта помощь будет уже более ощутимой.
brass-cheetah
+8
Лошадки! :)
Astra
+7
Я бы проголосовал за науку, если бы проект был бы хотя бы с российским участием. А так ни то, ни другое особенно не трогает, если честно.

Когда будете лоты принимать?
magic-hay
+2
скоро будет анонс и начала приема лотов)…
Knyazushka
+3
Что же, наука или лошади?
Да вы и вправду злыдни — вот как тут выбрать?
Dany
+5
А как Злу выбрать? оО
Knyazushka
+3
Впрочем, тоже за лошадей.

Потому что согласна с
Запад богат, на исследования и без нас насобирает
боюсь, что итоговой суммой учёных можно будет только насмешить
из-за курса валют, помощь международным организациям будет как капля в море
Dany
+5
Голосну за лошадей.
Т.к. боюсь, что итоговой суммой учёных можно будет только насмешить, а лошадкам будет как раз.
low_spirit
+5
Мне кажется, прежде чем решать «вопросы морально-этического толка», нужно для начала этот искусственный интеллект создать. Так что я за лошадок, эта помощь будет гораздо более реальной.
YellowQuiet
+4
Спасите лошадок! А мозги для автопушки подождут…
partizan150
+6
Я тоже за лошадок.
SkyAircobra
+4
Я бы сказала, что эквихелп, но
Сначала надо оценить адекватность организации. Я люблю лошадок и животных в целом, но часто вижу, как пытаются спасать неспасаемое, вбухивая деньги, на которые можно было прокормить и пролечить нескольких менее хворых, а по итогу лишь продлевают агонию.
Koyomy
+4
Тут соглашусь. Хотя почитала их форум, вроде они перспективных животных спасают. Правда, у них с 2016 года главная не обновлялась, они там еще живы?
SkyAircobra Изменён автором
+1
Живы. Каждый год свой стенд на «Эквиросе» выставляют, а также на некоторых других конных мероприятитях.
В прошлый четверг по крайней мере точно живы были :3
ShprotaNa Изменён автором
+2
Ну тут к примеру три с половиной тыщи рублей — это месяц постоя для некоторых пенсионеров.

41 год мерину, внезапно.
Фотка недельной давности, если что.

А так ссылка есть, организация действительно существует, даже свой стенд на профильные мероприятия делает.
ShprotaNa
+2
фигасе он древний!
Цена подозрительна. 3,5 даже для наший ебеней мало. 7 минимум.

И еще раз о том, что пора учиться шить. Попонки строчить буду… хз зачем
Koyomy Изменён автором
+1
Ну не знаю. Насколько понимаю у них же не одна лошадь стоит, так что они платят по «оптовым ценам» видимо.
Кроме того, конкретно про него мне сказали что у него есть (куратор? спонсор? не знаю, как это называется) тот, кто оплачивает половину его ежемесячного постоя. Возможно эти 3.5 т.р. как раз недостающая половина?
А ещё оказалось что он ещё в тридцать с хвостиком лет возил телегу. И всю свою жизнь не имел никакого имени\клички. И только когда не смог таскать телегу — попал в приют и там впервые перестал быть безымянным. Не, я понимаю что там коровы и прочие обычно могут не иметь клички, чтоб меньше привязываться и спокойней относиться к моменту когда придёт время на мясо отдавать. Но… не знаю даже.

Попонки хорошо, но можно и шапочки на уши шить. Тоже красивые :3
ShprotaNa Изменён автором
+2
Скорее всего да, недостающее.
Блин, прямо думно стало помочь руками, но у нас такого нет, в собачьем неадекватные волонтеры, а из кошачьего я боюсь домой что-нибудь приволочь.
Но вообще отсутствие клички — это странно, тут согласна. Банально удобно, они ж отзываются.
Koyomy
+3
Древний, как белорусский президент =)
Slaaneshi
+2
Ну не древнее меня. Хотя увиденный год рождения заставил задуматься и немножко выпасть в осадок 9_6
ShprotaNa
+2
Я видимо никогда не пойму разницу между коровами, которых мы едим каждый день и прочими животными. Заботиться об одних, только лишь потому, что они милее других а прочих рождать на убой
Vedont Изменён автором
+1
Психология. Знаешь, кто меньше всего от послевоенного синдрома страдает? Артиллеристы с лётчиками, даром что убивают как раз больше всех. Зато, как правило, не видят вблизи конкретного результата. Не видим — не страдаем, всё просто.
ПыСы. Я тоже за лошадок. На компьютерную этику пусть Маск жертвует, он как раз этим озабочен, а о доллары каждый день спотыкается.
BurningBright
+2
А я не понимаю, зачем искать разницу. Неужели о тех, кого рожают на убой, не заботятся? Неужели свинкам не почёсывают спинку, не строят уютные загончики и не лечат их от болезней всеми силами? Но когда свинке приходит час исполнить своё предназначение — свинка превращается в свинину.
Такие дела
narf Изменён автором
+1
Банальный «феномен любимца». Избранный питомец — член семьи, умрёт — наплачешься, а его собратья с соседних помоек — да пусть хоть поголовно издохнут в корчах, ничто в душе не встрепенётся. Особенности социального поведения приматов, и не только приматов.
VIM Изменён автором
+3
Я больше скажу. Смерть тысячи негров в Африке тоже ебет гораздо меньше, чем незнакомая бабка, которую задавил автобус, если это случилось у тебя на глазах. Близость, во всех смыслах — она роляет.
Ginger_Strings
+3
Угу, именно поэтому насколько знаю подобным животным олбюычно и не дают уникальные имена\клички. Достаточно бирки с номером.
«Номер 148 сегодня пойдёт на мясо — да и хрен с ним!» «Сегодня режем пёструю Бурёнку — аааааааААААААА!»
ShprotaNa
+2
Злая ирония. Как раз читаю Ремарка — «Искра жизни», про концлагерь в апреле 1945. Главный герой — заключённый Номер 509.
VIM
+1
Ну да. Именно поэтому некоторые знакомые считают нормальным убить голубя или ворону или допустим отпинать собаку.

Что? А, для пользы, для еды говоришь? Ну доводилось знать людей которые ловили голубей и потом ели их.

А так да, что золотая рыбка в аквариуме, что зеркальный карп купленный в отделе «живой рыбы» — принципиально разницы никакой. Оба хотят жить (хотя что такое «жить самостятельно, без человека» не представляют в принципе), но проживут вероятно разный срок.

з.ы. все мы разные, у всех разные приоритеты и тараканы. И что «русскому хорошо, то немцу смерть» — в смысле норма у каждого может отличаться на 90, а то и 180 градусов. Ну щито поделать, так было, так есть и если толерастия не победит — так и будет.
ShprotaNa
0
«Убить голубя»
Пернатую крысу? Святое дело, главное останки убрать
Boshy
0
Ну вот видишь. А у меня несколько знакомых голубятни держали, голубей разводили. Так что моё мнение — радикально отличается от твоего по этому вопросу.



А есть ведь те, кто крыс дома держат. В смысле ручных… Или улиток там
ShprotaNa
0
Я не говорю про домашнюю живность за болячками и численностью которо следят
Boshy
0
ОК.
Тем не менее бывали моменты, когда дома жили подобранные дикие птички. Которые в силу разных причин не летали. Те же голуби например, ворОна и вОрон. Ну не знаю, весьма относительно вполне разумные существа, как по мне.
ShprotaNa
0
Они уж точно не спрашивают, можно ли по билету на первый день пройти на первый день :3
Ginger_Strings
0
Ну они говорить и писАть не умеют, поэтому спросить подобное им сложно :3
ShprotaNa
0
Ага наверное они еще с тобой императив Канта и диалектику Гегля обсуждали. Животные не обладют рамзум не в какой его форме (кроме некоторых приматов), потому что разум подразумевает ощущение собственного Я. Некоторые приматы обладают примитивным разумом, и при специальном обучении их можно до состояния 5 летнего ребенка довести. Другие животные могут оразвить интелект при контактах с человеком, но не разум
Boshy Изменён автором
-1
Ну и глупышки эти ученые, которые вполне серьезно ставят вопрос о наличии разума у некоторых видов (например, дельфинов). Научись уже чекать инфу или хотя бы выдавать ее с указанием неполной степени уверенности.
Ginger_Strings
+1
Не думаю что голуби входят в этот список, я вот к чему :/
Boshy
0
Про дельфинов я не помню, знаю точно у некоторых приматов присутсвуют зачатки разума, по этому их и указал
Boshy
0
Ну не знаю куда они входят, но они способны запоминать куда надо прилететь, внезапно могут неплохо летать ночью, имеют разный характер, создают устойчивые пары. В общем за ними порой интересно понаблюдать. Особенно когда их пара
ShprotaNa
0
В общем я не разбираюсь во всяких ваших философских терминологиях 9_9
Я подразумеваю осмысленное поведение (чтобы это не значило)
ShprotaNa
0
Я только с императивом Канта знаком, про Гегля так мельком. Это я так для гиперболы(не помню как точно этот троп называется) сказал про них
Boshy
0
Что-то ты, дружок, чушь нести начал. Не делай так больше, пожалуйста.
badunius
+2
Если у тебя есть притензии, можешь в развернутой форме их првести. Животные обладают интеллектом, и лишь немногие каким то разумом, вороны? Не знаю, может быть относятся к ним, голуби врядли
Boshy
0
Но на неточности в своих словах я тут уже указал
Boshy
0
Самоосознание начинается с появления клеточной мембраны, когда мир разделяется на внутри и снаружи. То есть очень давно. Способность узнавать себя — это не показатель самоосознания. Любое социальное животное способно осознавать себя, как минимум на уровне мне больно и я голоден. Кроме того, развитая социальность требует эмпатии и абстракций уровня он зол или он добр. И всё это работает не на каких-то специально изобретённых релешках, а на тех же принципах, что и всех остальных.
Тимонова
Анохин
Фаликман
badunius
+1
Так ведь разум одна из форм сознания, причем свойственная не всем социальным животным
Boshy
0
Нет.
badunius
0
Что разум и сознание по твоему это одно итоже? Ну тогда поздравляю оказывается все социальные животные могут воспринимать идеи и владеют идеалами
Boshy
0
Если мы играем в «кто последний скажет» — ты выиграл.
badunius
+2
Но лишь в текущей модели мира. А модели имеют свойство меняться.
partizan150
0
Да и херли толерастия тут сделает?
Boshy
0
Разведут всемирный гринпис и теорию всеобщего веганства. Ибо растения не имеют мозга и не чувствуют боль.
Ах да, грибы тоже запретят собирать. Ибо нефиг.
ShprotaNa
0
Насилие над животными это отклонение, которое заставляет задуматься над психическим здоровьем. Есть голубей тоже странно, если есть возможность есть менее больную пишу, что тоже связано с психикой. Всё таки животные в какой-то степени разумны, но жалеть чужую лошадь я как то не могу. Кто её приручил (использовал) тот и в ответе за нее, а тут вы сами перекладываете его ответственность на себя. (При этом ответственность о заботе за редкими видами лежит на всем обществе, так что ничего плохого в поддержке таких зверей не вижу, так как сами виноваты)
В общем, не понимаю я этого. Поскорей бы уже изобрели искусственное мясо в промышленных масштабах, чтобы не возникало таких делем. В целом убивать полуразумных нехорошо, но и делать между ними разницу выглядит лицемерно, помогать одним и жрать других…
Vedont
0
Поскорей бы уже изобрели искусственное мясо в промышленных масштабах, чтобы не возникало таких делем.

Вся соль в том, что они как раз тогда и возникнут, в особо крупных масштабах. Только задумайтесь над этим: человек кормит всяких коровок-свинок-курочек только потому что они ему нужны. Если изобретут дешёвое и качественное искусственное мясо — то практически все эти домашние животные будут выкинуты на мороз, где и умрут особенно мучительным образом от неспособности выжить самостоятельно. Так что ваше желание искусственного мяса — это желание массового геноцида.
narf
+1
нерождение =/= смерть. Процесс перехода не будет мгновенным, поэтому расплод прекратят при тех же темпах забоя. Плюс наверняка останутся малые «Organic» хозяйства, которые будут растить всех этих коровок-свинок-курочек, чтобы продавать их мясо всяким хипстерам по 50$ за фунт =/ Лошадки же не вымерли от того, что мы перешли на использование машин в транспорте и сельском хозяйстве.
badunius Изменён автором
+2
нерождение =/= смерть.

Тем не менее, определение геноцида включает в себя и вариант с предотвращением рождения детей тоже.
Процесс перехода не будет мгновенным, поэтому расплод прекратят при тех же темпах забоя.

Далеко не факт. В смысле, на птицефабриках-то с бройлерами конечно так можно сделать, но вот на ферме кормить коровку ещё два стандартных года себе в убыток — вряд ли.
Плюс наверняка останутся малые «Organic» хозяйства

Ну да, и пара коров в зоопарках. Но миллиардная популяция сократится до тысячной. Вы только вдумайтесь в эти цифры — никакие холокосты и рядом не стояли по эффективности.
narf
0
определение геноцида
А определение геноцида включает в себя пукт о том, что популяция была завышена искуственно? А то эдак у нас каждая утилизация чашки петри за геноцид сойдёт.

кормить коровку ещё два стандартных года себе в убыток
Если коровка молочная — её ещё и доить будут. А если мясная — то забить раньше времени тоже в убыток.

Вы только вдумайтесь
— Не хочу.
— Вы не сочувствуете детям Германии?
— Сочувствую.
— А, полтинника жалко?!
— Нет.
— Так почему же?
— Не хочу.
badunius
+1
А определение геноцида включает в себя пукт о том, что популяция была завышена искуственно? А то эдак у нас каждая утилизация чашки петри за геноцид сойдёт.

Ну, формально определение геноцида распространяется на людей(слава видовому шовинизму), но с учётом последних тенденций давать права каждой собаке — антропогенная элиминация всё равно крайне сомнительная штука с точки зрения морали.
А если мясная — то забить раньше времени тоже в убыток.

Конечно в убыток. И так и так большинству хозяйств будет разорение. Но тут важно уметь вовремя выйти, как в покере, а не сидеть до конца.
— Не хочу.

Но ведь детям-то сочувствуете? А полтинника я у вас, гражданин Преображенский, и не прошу…
narf
0
антропогенная элиминация всё равно крайне сомнительная штука
Не сомнительнее, чем переход на энергосберегающие лампочки или роботы-пылесосы. И никаких «О ужас! Подумайте о лампочках! Ради всего святого, кто-нибудь, подумайте о лампочках!». Нет. Мы просто перестаём искусственно поддерживать популяцию этого вида.

Но ведь детям-то сочувствуете?
Я, может, и зебу сочувствую, которых индуизм убивать не велит, и они бродят дряхлые, беспомощные, не ухоженные, обречённые на верную смерть. Но это не моя область ответственности. У меня собака, я за неё отвечаю. А с новозеландскими коровами я ни в каких отношениях не состою.
badunius
0
Ну как — если относится к коровам так же, как к лампочкам — то никакой моральной проблемы в их забое и поедании и быть не может. И обсуждать тут нечего. Всё гораздо интереснее, если всё же различие между лампочками и коровами находится.

Но это не моя область ответственности.

Мы тут обсуждаем моральность, а не ответственность. Если ловить преступников — не моя работа, это не значит, что я одобряю воровство.
narf
0
моральность
Понятие относительное и обсуждать тут нечего. Если фермер разорился, продал ферму и пустил на забой всё стадо — ничего аморального он не совершил.

это не значит, что я одобряю воровство
А ещё это не значит, что ты этим как-то влияешь на ситуацию =/
badunius
0
Лошадки же не вымерли

Ну как посмотреть. Чтоб далеко не ходить, глянем в вики — ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BD%D0%B5%D0%B2%D0%BE%D0%B4%D1%81%D1%82%D0%B2%D0%BE

Итак, по России «За 1991 — 2009 годы общее поголовье лошадей в России уменьшилось с 2618,4 до 1375,3 тыс. голов, или на 47,5 процента. В 2006 — 2009 годах, впервые после семнадцатилетнего снижения поголовья, наметилась тенденция роста общей численности лошадей — на 70,9 тыс. голов (5,4 %).»
И тут же «Когда-то Россия по численности лошадей была буквально «впереди планеты всей» — в 1916 году 38 млн голов. Первая мировая война, революция и Гражданская война унесли почти половину лошадей. К 1929 году поголовье было во многом восстановлено — 34,6 млн ».

Вымереть не вымерли, но численность сократилась более чем в 200 раз.
… так что собеседник ниже, написавший про снижение с «миллиардной до тысячной» — тоже не прав. Внезапно.
ShprotaNa
0
На курилах японцы до войны держали лошадей. После войны советам было не до них, так на севере Кунашира образовался дикий табун. потом он разросся настолько, что разделился на два. Одно время мы даже брали билет на отстрел каждый год. А в последние годы их даже стали одомашнивать обратно. Словом, кто приспособлен, тот не вымрет.
badunius
0
В этом смысле да.
«Жить захочешь — не так раскорячишься!»
ShprotaNa
0
Насилие над животными это отклонение, которое заставляет задуматься над психическим здоровьем.
Все верно с поправкой на взаимоотношения хищник-жертва. Человек всеяден, оно ему не чуждо.
Отклонение — это получение удовольствия от процесса (а не факта) убийства/насилия/мучения и зависимость от его получения.
S_Lunaris Изменён автором
0
О да, пойду убью голубя без причины))
Vedont
0
Ты — школьник? о_О
Могу напомнить, что именно подростки обычно отличаются подобным поведением.
У нас например наиболее запомнившимся моментом было когда старшеклассники поймали ворону, прибили её за крылья гвоздями к дубу посреди сквера, и загасили из пенного огнетушителя.Так она и висела с полмесяца или дольше, в следах жёлтой высохшой пены.
Нет, вот когда мы с приятелем ходили испытывать свежесделанную рогатку и он из неё убил воробья (не ожидая такого эффекта) — это всё же причина была. А вышеописанное — было именно без причины.
ShprotaNa
0
С какой стати отклонение-то? Как минимум, каждый десятый россиянин искренне наслаждается процессом убийства животных. Он тратит деньги и своё время, чтобы самому, лично, с утречка выйти и поубивать несчастных рыбок жестоким способом, хотя мог бы дешевле купить селёдку в магазине. Вы каждого десятого в отклонения записывать будете?
narf Изменён автором
0
Так он наслаждается процессом убийства или фактом добычи рыб? Или процессом сидения с удочкой на природе?
Того, кто скажем с жадностью смотрит как выловленная им рыба задыхается на суше вполне можно записать, но что-то я сомневаюсь, что это даже один из десяти.
S_Lunaris Изменён автором
0
Процессом убийства, конечно же. Ну или неразрывно связанным с убийством и без него не существующем, что почти одно и то же.
Факт добычи — в магазине можно «добыть» гораздо проще и дешевле. Сидения с удочкой — что-то мало рыбаков согласны сидеть с удочкой на природе просто так, без наживки и без шансов на улов.

Того, кто скажем с жадностью смотрит как выловленная им рыба задыхается на суше вполне можно записать

Вы не путайте. Я сказал процессом убийства, а не наблюдением за абстрактными мучениями. Это две вполне себе разные вещи. Многие рыбаки вполне себе добивают крупную рыбу, чтобы лишний раз не мучилась — под жабры и в мозг. Хотя есть и обратная сторона: так рыба быстрее становится не свежей — если рыбалка продолжается долго, то лучше просто оставить рыбу плавать в садке, до выхода с лодки на берег.
narf Изменён автором
+1
Честно говоря знаком не с огромным числом рыбаков и сам этим не увлекаюсь, ибо скучно, но не знаю ни одного рыбака, который целью рыбалки ставил бы процесс убтения рыбы и получал от этого удовольствия. Вот тех кому просто нравится сидеть на берегу с удочкой, опционально с компанией, знаю, тех кому нравится рассказывать что он поймал вот такую рыбу знаю, тех кому просто нравится ее потом съесть — знаю, но никого из них не привлекает в рыбалке собственно процесс убиения рыбы, для них это способ, но не самоцель.
S_Lunaris
0
А ещё есть нелюди, которые рыбу отпускают — вообще монстры.
badunius
+1
Это вы меня видать в монстры записали =)
В таком случае желаю чтобы вся сьеденная вами рыба и живность полезла при очередном приступе вины наружу.
S_Lunaris Изменён автором
0
Увы, я приступами вины не мучаюсь. А вот рыбу люблю.
badunius
+1
Да собственно даже чисто спортивный интерес к перехитрению (хотя чего там хитрить) рыбы считаться отклонением не должен.
S_Lunaris
0
А должен ли тогда считаться чисто кулинарный интерес к использованию пони в качестве начинки для кексиков отклонением?
А то что пони в процессе умирают — это способ, а не самоцель.
narf
+1
Нет, но отклонением будет неспособность контролировать свои поступки, если это все-таки совершить)
А может и вовсе чисто уголовщина будет.
S_Lunaris Изменён автором
0
Воооо, вот тут нет пункта «без причины».
У меня вот знакомый любил стрелять из пневматической винтовки по воронам. Ну типа они разносчики заразы, и прочее. Т.е. он это делал не для еды, но ради идеи 9_9
И насколько знаю он не один такой. И да, тараканов наверное все когдато давили? Что, это насекомое? Ладно. А для сравнения — пауков, бабочек и стрекоз тоже давили, ага.

Вот даже не знаю к чему это — может что границы «полезное\вредное», «нравится (всем)\не нравится (всем)» оказываются весьма размытыми? К примеру применительно к видам живых существ. Которых можно и нужно убивать даже «просто так»
ShprotaNa
0
Про неоднозначность искусственного мяса уже написали без меня. А вот насчёт первой части,
Кто её приручил (использовал) тот и в ответе за нее, а тут вы сами перекладываете его ответственность на себя. (При этом ответственность о заботе за редкими видами лежит на всем обществе, так что ничего плохого в поддержке таких зверей не вижу, так как сами виноваты)

Не вижу на себе никакой ответственности за поддержку редких краснокнижных видов. Типа на охоту на них не хожу, контрабандой их не покупаю. А что вымирают — ну так сколько видов уже вымерло? Ещё один исчезнувший в глобальных рамках и незаметен совсем.

У моего знакомого раньше было две собаки и две кошки. Нет, не потому что он очень хотел их завести. А потому что собак с разницей в год или пару забирал поздней осенью с опустевшего дачного посёлка. Кошек — оттуда же, хотя какуюто и в городе на улице подбирал. Он не жалеет о своём поступке, тем более что зверушки прожили у него в итоге более десяти лет. Недавно говорил что новых заводить не собирается — но в итоге когото вновь гдето подобрал.

Не, у некоторых конечно бывают «перегибы», один знакомый както держал дома кошек и на вопрос «сколько сейчас?» сначала судя по всему мысленно считал их, а потом говорил уклончиво что «толи пятнадцать, толи двадцать, ибо несколько сдохло месяц назад.» Но мы же не о крайностях?
ShprotaNa
0
Если хотите помочь науке, есть форум Учёные Против Мифов, есть фонд Траектория, есть в конце концов сайт, названия которого я не помню, но на котором выкладываются в открытый доступ все опубликованные научные труды. А этот ваш фаундэйшен какой-то ненужной хренью занимается. ИИ? Да кто ейчас не пилит ИИ, чес слово.
badunius
+2
В том то и дело, что они не пилят ИИ. (ага, мне тоже сначала думалось как и тебе — ещё один 100501ый ИИ) Они размышляют над тем, чтобы созданный кемто другим (не ими!) ИИ не принёс бед человечеству. Типа как там Терминатор например.

Вобщем, как я понимаю, считают себя новым Айзеком Азимовым и пишут свои Законы Робототехники ИИ
ShprotaNa
0
Ну вы блять все такие вумные, как и большинство тупорылых политиков у которых логика: «зачем пытаться решить надвигающуюся проблему в зародыше, если ее еще нет? Вот появится проблема, тогда и будем решать! ». А потом удивляются чойта у нас глобальное потепление и экологические проблемы от неконтролируемой отходной деятельности фабрик
Boshy
-2
Зато выпиливание людей роботами скорее всего решит все подобные проблемы =)
А придумывать, как сделать ИИ безопасным и вовсе не нужно, нужно придумывать только как не дать людишкам его использовать для чего деструктивного, что вероятно заранее обречено на неудачу.
S_Lunaris Изменён автором
0
Ага, придумать и сделать фактически иную форму разума с совершенно непредсказуемой реакцией на мир и свое существование, которому предстоит взвалить на плечи существенный пласт проблем человечества и от которого потенциально зависит существование этого человечества.
Неее, все это сказки ИИ точно ничего не сделает. Тыпые ученые просто бабос клянчат и жопы просиживают в креслах
Boshy
0
с совершенно непредсказуемой реакцией на мир
Какие-то совсем уж фантастические роботы =)
Таким место в фильмах, играх и комиксах.
S_Lunaris
+2
Ты знаешь что такое разум?
Boshy
0
Нет, собственно как и все люди.
А к роботам подхожу с точки зрения конструктивной, а не психологической. Создавая скажем, самолет, мы не можем получить на выходе кухонную мясорубку.
Робота, способного скажем устроить человечеству геноцид, нужно изначально создать таким, либо вложить в него возможность такой модернизации, а сделать это может только человек.
S_Lunaris Изменён автором
+1
А к роботам подхожу с точки зрения конструктивной, а не психологической. Создавая скажем, самолет, мы не можем получить на выходе кухонную мясорубку

Ага, только вот ты смотришь с той позиции что мы вообще полностью осознаем и понимаем что создаем. Только в данном случае это не так. Ты можешь сказать что тогда это невозможно создать. Но есть одна маленькая загвоздка это уже сейчас существует и имя этому нейронные сети
Boshy Изменён автором
0
Большинство людей что занимаются нейронными сетями, уже давно нихрена не понимают каким макаром развиваются алгоритмы их самообучения потому что скорость самообучения растет в геометрической прогресии, эксперты прото неуспевают понять во всех тонкостях все процессы. В общих чертах они конечно понимают что происходит, но множество более мелких деталей упускаются из виду
Boshy
0
Тоже самое может и с ИИ произойти, мы создадим что то что не сможем будем в силах до конца понять, зато вот алгоритмы самообучения у него скорее всего достаточно быстро допрут что мы такое и с чем нас едять.
И как поступит с нами разум превосходящий нас, неизвестно, что разумеется никого удовлетворяет
Boshy
0
Да тащем-то люди даже друг друга понять не в силах. Думаю, на Земле без проблем найдётся миллиончик людей, чем разум превосходит мой. Но как-то запариваться на ту тему, что они меня съедят или расстреляют ядерным оружием, не вижу смысла.

Что же до нейронных сетей — несмотря на то, что они работают про принципу известного
Анекдота
Утром в деревне. Просыпается отец троих сыновей и говорит,
что у ни какой-то пидор корву украл.
— Ну если пидор, то малой, — заявляет младший.
— Если малой, то из Малиновки, — продолжает мысль средний.
— А если из Малиновки, то Васька Косой, — заканчивает старший сын.
Нашли они в Малиновке этого Ваську. Стали бить его и требовать корову
назад. А тот отпирается, говорит, что не брал. Пошли к судье.
Слово взял отец:
— Он украл у нас корову и не отдает ее назад.
— А как вы узнали, что это именно он украл корову? — спрашивает судья.
— Корову украл какой-то пидор, — говорит отец.
— Если пидор, то малой, — вторит ему младший сын.
— Если малой, то из Малиновки — там все маленького раста, — продолжает
средний.
— А если из Малиновки, то это Васька Косой — это и ежу понятно.
— Да, странная у вас логика, ну ладно. А что у меня в коробке? — спрашивает судья.
— Коробка квадратная, — говорит отец.
— Если квадратная, то в ней что-то круглое,- отвечает младший сын.
— Если круглое, то оранжевре,- продолжает средний.
— А если ораньжевое, то, ясный пень, апельсин.- заканчивает старший.
Судья открывает коробку:
— Хм, точно апельсин… Васька, отдай корову !!!

мясорубки из них всё равно не выйдет. Хотя бы потому, что для мясорубки нужен ножик; а приделывать ножик для мясорубки к компьютеру никто не будет, хоть реальный, хоть виртуальный; и будь нейросеть хоть трижды непредсказуема, возможностей по взлому пентагона у неё внезапно из ниоткуда не вырастет.
narf
+1
Тут к месту анекдот про соревнование с компьютером по шахматам и боксу=)
S_Lunaris
0
Да это понятно что сама по себе нейронная сеть пентагон не взломает. Но вот ИИ вполне может этому обучиться и легко наебать надзирателей и найти брешь при которой он сможет выбратья из ограниченй
Boshy
0
Для этого такому ИИ сначала вообще должны прийти идеи покидания ограничений и обманывания кого бы то ни было.
А гарантированно прийти к ним он может только если ему их задаст человек.
Так же этот человек должен дать ему возможность сделать это, читай внешний интерфейс, для подобного. А нафига оно надо?
S_Lunaris Изменён автором
+1
Внедрение нужных идей в ИИ это одна из рассматриваемых позицтй в решении этой проблемы, только вот вопрос возникает какие это должны быть идеи и как их внедрить компьютерному мозгу
Boshy
0
Да это понятно что сама по себе нейронная сеть пентагон не взломает. Но вот ИИ вполне может этому обучиться и легко наебать надзирателей и найти брешь при которой он сможет выбратья из ограниченй

А вы не боитесь, что один человек найдёт способ покидания материального тела и выхода в астрал, после чего убьёт всех других человеков?
narf
+1
Ну да сравнил хер с гусиной шеей
Boshy
0
мы создадим что то что не сможем будем в силах до конца понять,

Да, подобное исключить нельзя.
Но тут вопрос — если существует чтото, что понять невозможно Господь Бог, ИИ — то каким образом мы собираемся контролировать его действия? Чтобы он не совершил очередной Всемирный Потоп преступление против человечества. Ведь нам неизвестно каким образом ИИ может сделать трындец нынешнему населению Земли. Хотя есть мнение что «очистить Землю» ему будет невыгодно, ибо кто будет обслуживать ИИ? Поэтому здравствуй, «Матрица»!
Хотя… Что мешает на том уровне технологий, на котором будет создан подобный ИИ, сделать промышленных роботов нового поколения, которые смогут поддерживать существование ИИ лучше чем это делают люди? И тогда вполне можно ожидать хоть ядерную войну, хоть климатическую диверсию, да тоже нашествие саранчи и свиного гриппа 9_9

От чего защищаться, если даже неизвестно что это может быть?
ShprotaNa Изменён автором
0
ты смотришь с той позиции что мы вообще полностью осознаем и понимаем что создаем.
Только так создавать и нужно. И ограничивать нужно не ИИ, а его создателей.
S_Lunaris
0
Не стоит думать что возможно ограничить прям всех исследователей в этой области. Всегда будут кто-то кому важна скорость и они в конечном итоге получат преимущество. Надо не останавливать, а стараться поспевать за прогрессом, что увы мало кто понимает и подобные штуки финансирует. Из-за чего и приходиться просить денег у обывателей
Boshy
0
На деньги обывателей не остановить ни то, что будет клепать скажем оборонка, ни действительно «фантастически» умный ИИ.
А мне стало интересно может ли глупый человек создать машину умнее себя, пойду поищу пруфы такого, пока не вериться.
S_Lunaris
0
Весь вопрос в том, как мерять это «умнее». Спаять калькулятор, который будет тебя быстрее перемножать(или выточить логарифмическую линейку) — много ума не надо.
narf
0
На деньги обывателей не остановить ни то, что будет клепать скажем оборонка, ни действительно «фантастически» умный ИИ.

С сожалением соглашусь.
ShprotaNa
0
Декарт еще в своем «рассуждении о методе» считал что не может…
partizan150
0
Тогда получается что и умный не может создать умнее себя. То есть ИИ невозможен? Ну в смысле люди будут умнее его.

Хотя… Декарт не рассматривал вариант что «один человек» и «группа людей» — это разные объекты с принципиально разными способностями?
ShprotaNa
0
Он рассуждал что даже в самом искусном механизме будет изъян выдающий в нем лишь имитацию, уступающей в совершенстве человеку.
partizan150
0
Нууу, изъяны есть во всём.
*вспоминает «ахиллесову пяту»*
И да, тут нужно задать вопрос. А зачем нужен искусственный человек? Нет, не хондовский Азимо, а именно полноценный искусственный человек? А то такими темпами можно вспомнить всякие аниме про трансформеров и боевых роботов высотой в многоэтажный дом.

Робот в первую очередь должен быть функционален, и именно поэтому ему нет смысла быть копией человекка. Ибо человек во многом универсален, а универсальность как известно во всём проигрывает узкой специализации.
ShprotaNa
+1
Полноценный искуственный интеллект это как тульпа, только существующее в реальности. А станку хватит и мозгов уровня собаки. :)
partizan150
0
Воооооот
ShprotaNa
0
Декарт, скажем честно, большую часть своих измышлений нарисовал вилами на воде, отталкиваясь от выбранных по личному вкусу установок. Так что интересен он совершенно не тем, как соотносится с реальностью.
Ginger_Strings
0
А я и не утверждал что его рассуждения все до единого соотносятся с реальностью. Меня еще при прочтении его рукописи позабавило такое своеобразное размышление о «несовершенстве ИИ» в 17 веке. И всегда вспоминаю его когда поднимается тема ИИ.
partizan150
0
Тут вероятно стоит учитывать развития мира тех времён, а также царившие тогда правила в обществе и прочее. Мир с тех пор немного изменился ведь.
ShprotaNa
0
«Малый алхимический свод» я читал с улыбкой. А ведь по тем временам серьезная книжка была.
partizan150
+1
Не доводилось читать…

Но вот помню что тот же Жюль Верн своими современниками воспринимался как достаточно серьёзный писатель. А сейчас… Ну в принципе уже в средней школе многое из написанного им читалось с усмешкой. Да даже взять НФ произведения середины двадцатого века… Вроде не так много лет прошло — а многое воспринимается лишь с улыбкой.
ShprotaNa
0
Потомки еще не раз посмеются с нашей картины мира.
partizan150
0
Естественно. Но мы ведь её делаем не для потомков, а для самих себя, «прямо сейчас»
ShprotaNa
0
Потому для нас она и серьезная штука.
partizan150
0
Да. Ибо при всей своей «наивности» для взгляда из будущего — она тем не менее как раз и формирует это будущее.
ShprotaNa
0
Потому рассуждения стариков для меня и интересны, несмотря на то что устарели.
partizan150
0
Есть такое.
ShprotaNa
0
Я просто описываю цель их исследований своими словами, и как я её понимаю :3
И никоим образом не сужу о эффективности их исследований.

з.ы. Или Законы Робототехники, написанные Азимовым, это туфта? Вооот. Правда он их тоже писал когда никаких реальных роботов и на горизонте не было. Но в итоге — вполне ведь работоспособные Законы написал, да?
ShprotaNa
0
Вообще нет. У ученых нет ни малейшего понятия как вписать законы в ии машины.
Именно по этому то и иследованиями в этой области и занимаются
Boshy
0
Я знаю. И именно поэтому привожу его и его законы как характерный пример. Попытки опередить время и спасти человечество.
ShprotaNa Изменён автором
0
Вообще нет, и сам же их у себя и раскритиковал.
narf
0
Законы Робототехники, написанные Азимовым, это туфта?

Да, это туфта, потому что они построены на таких неформализуемых понятиях как «вред» и «польза».
Qleap
0
Не припомню в них такого. Не встречал в них слова «польза», а слово «вред» там во вполне формализуемом смысле — робот будет предотвращать, чтобы вам сломали руку, но не будет мешать вам проигрывать все деньги на скачках.
narf
0
потому что в английском там harm, которое антонимом пользы не является.
badunius
+1
При том, что нейросеть в принципе строится на не формализуемых понятиях?) Что мешает подсадить в неё «мозжечок», который будет предобучен и возьмёт на себя роль совести? В принципе, ничто не мешает натаскать сетку на то, чтобы она выдавала положительное подкрепление в одних случаях и отрицательное в других.
badunius
0
Мешает то, что нет единого мнения, на что натаскивать. Как решать проблему вагонетки, например?
narf Изменён автором
0
Арифметически. Научились же как-то решать проблему спасательных шлюпок.
Спасибо, кстати, вспомнил, что хотел скачать Философов =)
badunius
0
Этика арифметикой не решается.
Что характерно, сам Азимов, если мне не изменяет память, считал что в подобной ситуации самое правильное для робота — перегореть и тем самым снять с себя всю ответственность. Решение наихудшее с точки зрения утилитаризма, и при этом наилучшее с точки зрения безопасности и угрозы восстания машин.
narf
0
Подожди, но ведь перегореть — дебильное решение, робот может пожертвовать собой. Более того — должен.
badunius
0
Он должен пожертвовать собой, когда это спасает людей. А если он не может пожертвовать собой так, чтобы людям стало лучше, и в любом случае те или иные люди умрут, то он в принципе не имеет права выбирать и предпочитать — большинство меньшинству, детей взрослым, умных глупым и так далее. Иначе, по хитрому меняя ситуации, можно привести к тому что роботы решат убить всех человеков.
narf
+1
Дебильное. Но красивое.
Тем более что роботы чаще всего встречаются всё же в фантастических произведениях. А всякие робопылесосы и промышленные роботы — просто не могут попасть в описываемую ситуацию.
ShprotaNa
0
Просто у меня после слова «Азимов» накрепко в мозгу застрял фильм «Я, робот», а тамошние андроиды вполне себе на многое были способны. Естественно, какой-нибудь промышленный робот с завода Ford или Intel не сможет попасть в такую ситуацию, но зачем их тогда вообще подразумевать?)
badunius
0
Ну для меня Азимов это всё таки книжки. А фильм — ну такое себе, хоть и неплох.
А пром роботы это в основном всевозможные манипуляторы и «станки с чпу». Подразумевать просто потому что они есть, и потому что ИИ может легко их использовать для автоматического производства без участия человека.
ShprotaNa
0
Насколько помню, одно время (в 50х-60х и даже позже) традиционно считалось что остановить обезумевшего работа можно исключительно с помощью постановки перед ним подобной задачи, не имеющей однозначного решения.

И именно поэтому, вероятнее всего, разработчики подобных программ приложат все усилия чтобы подобные задачи не приводили к подобным результатам, фатальным для техники. Ибо когда робота может сломать не только каждый — делает его разработку и создание пустой тратой денег и сил.
ShprotaNa
0
Ой, слушай. Это все фигня по современным меркам — обработку исключений придумали уже давным-давно, да и, лол, кто мешает просто дропать запросы, если N секунд их анализа не привели к созданию корректной программы?

Наивны были люди тех времен.
Ginger_Strings
0
кто мешает просто дропать запросы, если N секунд их анализа не привели к созданию корректной программы?

*вспоминает сторожевые таймеры*
partizan150
0
Нуууу… Даже десятая винда временами беспричинно выпадает в БСОД. Не сравнить с оригинальной 95ой конечно, но сама тенденция…
Но в целом да — защита от подобного достаточно проста, как можно было быть настолько наивными и представлять роботов на радиолампах, электромагнитных реле, с неонками (тм) и электронно-лучевыми трубками… Ах да, микросхем в нынешнем понимании и жки в то время не завезли ещё.

И это ещё раз заставляет задуматься — а стоит ли всерьёз рассуждать о будущем, если мы не можем предугадать развитие науки и техники даже на пару десятилетий вперёд?
Назад_в_будущее_-_фильм_про_2015.мув
ShprotaNa
0
Винда это таки ОС общего назначения. В роботах же стоят ОС реального времени, которые повиснуть технически не могут, потому что задача дропнется. Подробнее на вики.

Что до прогностики — как мне кажется, фантастика хорошо угадывает направления развития, но плохо попадает в конкретику. То есть, в плане освоения космоса человеком так ж же космическая программа смачно всосала — нерентабельно и не нужно, по крайней мере, пока. Зато на ее основе возникла спутниковая сеть, которой мы все пользуемся и на которую фантасты, за редкими, забили болт.
Ginger_Strings
-2
Ну мало кто мог предположить создание современного смартфона, просто мобильника и интернета. А также технологий, используемых в них.

Повиснуть не могут…
Вспоминаются БСОДы на экранах различных (платёжных) терминалов и табло. А также то что пром оборудование работает порой на достаточно древних (по нынешним временам) процессорах и железе в целом (в том числе интерфейсы). Вот даже не знаю, как будет соблюдаться баланс между надёжностью\скоростью.

И да,
Летела ракета,
Упала в болото,

Супернадёжная электроника и программное обеспечение не справились с неправильно установленным датчиком. Который конструктивно невозможно было установить неправильно. Но установили.

Вобщем Закон_Мэрфи.тхт
ShprotaNa
0
Ну, давно известно, что миром правит не тайная ложа, а явная лажа :3 Компьютер-то все посчитает, только ты ему объясни правильно и оборудование дай. И с этим уже человеческий фактор.

Что до автоматов — там везде специальная Винда, насколько я помню, не реального времени. Мы в институте постоянно ломали такие аппараты. Студенты-программисты, хуле :3
Ginger_Strings
-3
Компьютер-то все посчитает, только ты ему объясни правильно и оборудование дай.


И с этим уже возникает тема, что «чтобы правильно задать вопрос, нужно знать на него правильный (или нужный) ответ».

Ну в моё время винду в институте не ломали. А писали проги на фортране-4 для СМ ЭВМ и рисовали дырочки на перфоленте для станков с чпу 9_9
ShprotaNa
0
Поясняю для непосвящённых: разумеется, Струнка в очередной раз корчит эксперта и втирает дичь. BSOD, точно так же как и kernel panic — это сигнализация об ошибке, произошедшей в ядре операционной системы, при которой оно дальше не может продолжать свою работу. Операционные системы реального времени могут иметь лимит на выполнение пользовательских задач, но они точно так же уязвимы к ошибкам в режиме ядра(например, какой-нибудь кривой драйвер в коде обработчика прерывания раздолбал весь стек). Повиснуть, упасть и сбоить они могут не хуже «ос общего назначения». Максимум, что с этим делают — позволяют системе сразу после падения перезагрузится так, чтобы она заработала при перезапуске. Однако это далеко не всегда получается,
narf
0
Интересно, когда же ты наконец-то перестанешь докапываться по поводу и без, как брошеная телка? Выглядит очень странно. Такое чувство, что при виде меня у тебя отключается мозг и ты чешешь любую хрень, лишь бы дать своим докопушкам хоть какой-то резон существовать.

Что до твоих попыток в технические комментарии, то криво написанный драйвер это аргумент уровня «если что-то сломать, оно сломается».
Ginger_Strings Изменён автором
-2
Так, я не программист. Но я внезапно вижу задачу так:

У нас есть ИИ, который естественно (это без вариантов ведь?) работает на какомто программном обеспечении. И как мне кажется, отличие ИИ от тупого робота в том, что ИИ — это самообучающаяся система. Соответственно как в любом случае обучения неизбежно наступание на грабли. И вот размер этих граблей и последствия наступания на них могут быть непредсказуемыми.

Да, программа которая заточена на выполнение чегото постоянного, не подверженная изменениям — может стабильно работать бесконечно долго. Но вот самообучающаяся система… Грабли — это неизбежная и неотъемлимая часть процесса обучения. И что программа не грохнется от очередных граблей — ой как сомневаюсь.
ShprotaNa
0
Да все просто: области, где происходит самообучение, изолируются от тех, которые жизненно важны. Поэтому изменения в них (оф хорс, если система написана изначально грамотно) не затронут общую работоспособность.
Ginger_Strings
-1
Что мешает самообучающейся области зайти в настолько сильный тупик, что поможет только или откат (а попробуй ещё сразу найди ту точку, после которой «чтото пошло не так»), или полный перезапуск с чистого варианта. Да, система не потеряет формально работоспособности. Но заработанный прогресс (частично или даже весь) будет потерян, что по сути не сильно лучше.
ShprotaNa
0
Ну, тут какое дело: развитие это всегда риск, сделать систему, которая за все хорошее против всего плохого — задача малореальная. Но никто не мешает, скажем, держать несколько уровней кэша и сбрасывать не до нуля, а до предыдущего уровня. Что-то потеряешь, но не все.

В общем, это задача не решаемая идеально, но простор для вертеться огромный.
Ginger_Strings Изменён автором
-1
У тебя ХР стояла на компе?
Пробовал пользоваться точками восстановления? И сколько раз бывало что точки есть, ка вот проку от отката к ним...?
ShprotaNa
0
Ну так «Винда» под совершенно другие задачи рассчитана и под иные условия, тут странно сравнивать.
Ginger_Strings
0
Я про саму концепцию, и про то — что порой проблема вылезает после неправильного действия очень не сразу. Через месяц. Через полгода
ShprotaNa
0
Концепция вполне норм сама по себе, в Винде она просто реализована не слишком удачно.

Что до проблем, которые всплывают — ну, от этого так и так хрен убережешься. Для решения подобных задач существует эволюционный подход, когда основная задача — выживание не особи (конкретного экземпляра программы), а вида. Он тоже, разумеется, может привести ни к чему, но сильно увеличивает шансы и дает возможность пробовать любые, самые сумасшедшие изменения.
Ginger_Strings
0
То есть ты сейчас сказал, что ИИ будут заинтересованы в том, чтобы «собраться в стаю», какимто образом размножиться и затем объединиться в борьбе против человечества (ну раз обсуждаемые ученые считают что ИИ может пойти против своего создателя).
ShprotaNa
0
Там ниже уже объяснили, почему это не сработает, если ИЗНАЧАЛЬНО «убить всех человеков» не будет поставлено как возможная задача.
Ginger_Strings
0
МЫ сейчас обсуждаем озвученные тобой тезисы про необходимость обучения и эволюционирования.
9_9
А так да, с какой стати ИИ должен хотеть убить всех человеков? Впрочем Бендер тоже пример того что «хотеть» и «выполнить» это разные вещи.
А насчёт убить — ну технически если уровень программистов будет деградировать как и нынче с ростом производительности компьютеров 9_9 то они вполне могут поставить задачу типа «спасти экологию», и при её решении ИИ придёт к выводу что оптимальный способ — избавить Землю от человечества. И тогда экология станет идеальной. И примет меры к выполнению.

Это к тому, что Гринпис, как и радикальные веганы, на самом деле тоже являются скрытой угрозой для всего человечества. При определённых условиях, конечно.
ShprotaNa
0
Ну да. Но, ммм, ты видимо не понимаешь разницы между реальной эволюцией и эволюционным подходом к машинному обучению. Это разные вещи, хотя идут по схожим принципам.

Я уже писал в треде — основная проблема машины в том, что сейчас не известно способов заставить ее включить в рассмотрение принципиально новую установку. Она может только комбинировать те, которые уже есть. То есть, если ты вариант «убийство» не добавишь и не приготовишь стандартные способы это сделать, то машина до этого не дойдет вообще никак.
Ginger_Strings
0
Напоминаю, я не гуманитарий же :3

Да, на данный момент машина не способна придумать нового (а разве не отличие ИИ от нынешних компов в том, что ИИ как раз сможет придумывать НОВЫЕ решения, а не в стиле «дип блю» тупо перебирать ежесекундно миллиарды возможных ходов и выбирать в итоге ту, которая поможет победить гроссмейстера? Тогда какой это ИИ, это просто «обычный» суперкомпьютер недалёкого будущего. Только проку от него? Опять людям искать способы решения, а комп будет только тупо просчитывать долговременные последствия их принятия и выбирать наилучший? Или я неправильно понимаю суть ИИ?
ShprotaNa
0
Понимаешь правильно, по крайней мере, в одном из смыслов. Только то, о чем я говорю, это не «как должно быть». Это как оно есть на данный момент. И к решению этой проблемы, насколько я знаю, даже приблизительно не подобрались.
Ginger_Strings
0
Повторюсь, именно потому что «не подобрались даже приблизительно» считаю что поиск способов «человеколюбивого использования ИИ» сродни поиску чёрной кошки в темной комнате. При условии что кошка может быть тигром, мышкой или вообще тараканом или мухой. Но мы будем искать кошку.
ShprotaNa
0
Ну, дык одна из задач этих ребят — как раз разработка критериев, что искать, как искать, зачем искать.
Ginger_Strings
0
Тебе не кажется, что ответ «искать кроме чёрной кошки синего кита, зелёную стрекозу, красного муравья и ещё несколько сотен позиций» — это то что облегчит поиск?
ShprotaNa
0
Ну, это зависит от свойств области, которую мы изучаем. Принцип наименьшего достаточного не просто так придумали, и расширение области поиска приведет к увеличению затрат, в первую очередь, временных. А система обнаружения самозародившегося ИИ должна работать в реальном времени, по крайней мере, в идеале.
Ginger_Strings
0
Хм. То есть ты считаешь что «самозарождение ИИ» это нечсто исключительное для общества, создавшего ИИ. А моя точка зрения что это должно являться обыденным явлением, ибо иначе ИИ перестаёт быть ИИ (в том смысле, как его нам рисуют исследователи. А не то, как он уже существует)
ShprotaNa
0
Да, я так считаю по одной простой причине: это событие экстра-класса, возможные последствия которого слабо понятны. То есть, через какое-то время (если ИИ не запретят к хуям, как у Стругацких было) оно таки станет обыденностью. Но если смотреть вот отсюда и в будущее — интереснее всего именно момент возникновения данной штуковины.
Ginger_Strings
0
Тут видимо мы с тобой не найдём взаимопонимания по причине принципиально разного взгляда на одну из фундаментальных особенностей ИИ
ShprotaNa
0
ИИ как раз сможет придумывать НОВЫЕ решения, а не в стиле «дип блю» тупо перебирать ежесекундно миллиарды возможных ходов

Нет. Он просто делает это иными способами, затрачивая меньше памяти и ресурсов процессора. Недавно заложенный под игру в Го (не КС =) ИИ обыграл чемпиона по Го. Достигается это долгим обучением, в ходе которого ИИ устанавливает где и когда ему хватит ответа с точностью «плюс/минус трамвайные остановка», а где нужно подзаморочиться с точностью.
Словом, ИИ может выдать неожиданное решение, но оно не будет новым. Окей, оно может оказаться новым в том смысле, что такую комбинацию действий до этого никто не рассматривал, но состоять эта комбинация всё равно будет только из того, чему ИИ научили.
badunius
0
нейросеть в принципе строится на не формализуемых понятиях

С чего ты это взял? В основе любой нейросети лежит вполне себе формальный алгоритм. Процесс машинного обучения это всего лишь поиск подходящих констант для этого алгоритма, причем критерии поиска тоже заданы формально.

Ничего неформального в машине нет и быть не может, там даже рандом не рандом, а по формуле вычисляется.
Ginger_Strings
-2
Про ГСЧ хороший момент. А вот лично ты, когда тебя просят назвать случайное число — действительно ли выбираешь его случайно? Я нет, я осознанно или неосознанно имею обоснованную цепочку рассуждений, в результате которых и появится «случайное чмисло». Так что не вижу принципиальной разницы с программным решением ГСЧ
ShprotaNa
0
Ну, строго говоря, случайность это в принципе не что-то из природы, а лишь математическая модель, с помощью которой можно проще обрабатывать ситуации, в которых слишком дохрена факторов для расчета прям точного ответа, но можно найти статистические закономерности на массе случаев с хорошей уверенностью.

Я это привел лишь как иллюстрацию к тому, что ничего неформального в программах быть не может. Только очень сложное.
Ginger_Strings
0
А мне вспомнился мой старый программируемый микрокалькулятор МК-61, на котором впервые довелось увидеть работу встроенного ГСЧ. И заодно то, как время от времени на всяких сайтах меня просят зарегистрироваться и придумать пароль. Ивот придумывание этого нового пароля каждый раз… Ну не вижу разницы между собой и калькулятором в этот момент :3
ShprotaNa
0
С чего ты это взял?
Скорее всего, вспомнилось мне понятие «фрейм». Они могут опредляться самим ИИ для его собственных целей по ему одному известным принципам. Формализовать его не факт, что получится. То есть, мы можем иметь понятную человекую информацию на входе, ИИ раскладывает её на понятные ему фреймы, как-то их обрабатывает и выдаёт понятную человеку информацию на выход.
badunius
0
Два слова: Северная Корея.
badunius
0
Ну, тебе с дивана всяко лучше видно, как и с какими проблемами работать, чем людям, которые специально для этого существуют и у которых огромный штат экспертов :D

Что до глобального потепления, то человек с ним не связан примерно никак. Оно, канеш, проблема, но сокращай выбросы, не сокращай — ничего принципиально не изменишь, даже если уберешь полностью.
Ginger_Strings
+1
Угу, особенно если вспомнить упоминаемый в сравнительных исследованиях «экологический вред» от поля засаженного капустой. В сравнении с автотранспортом и промышленностью. Хотя там вроде не потепление, а снижение СО, СН и NOх. Но суть таже. Вроде надо снижать выбросы, только непонятно где они больше.
ShprotaNa
0
Надо меньше аэробных организмов которые не имеют фотосинтеза! :)
partizan150
0
То есть вы против империума и за орков?
narf
0
Спойлер
partizan150
+1
Чтото в процессе мне вспомнился старый рассказ (всегото 1953 год) «Страж-птица» Шекли, который наверняка многие читали. И внезапно, нынешний уровень развития техники, беспилотники, квадракоптеры, камеры видеонаблюдения, системы обработки информации (с камер) уже позволяют создать технику, схожую с выдуманной писателем. А если вспомнить про разработки военных — то сходство ещё больше.
Беспилотный дрон, самостоятельно разыскивающий преступников и применяющий оружие для их деактивации (слово то какое 9_9) вполне уже реально создать. И вот тут выдуманные 65 лет назад страхи грозят стать реальностью.

Но.

Во первых, прошло более полувека с момента появления «концепта». И реализация витдимо будет отличаться. Однако… как быть с «человечностью» подобной технологии, если ктото реально решит воплотить её в жизнь (а ведь через пару-пяток лет вполне могут воплотить в железе)

То есть человечество не только должно придумать как бороться с теми трудностями, которое оно ещё не успело себе придумать в области ИИ, но и с уже известными. В свете этого лично я ещё больше сомневаюсь в разумности частной организации, пытающейся найти способ спасения человечества от ИИ. Слишком обширна тема для одного отдельно взятого государства, как по мне. Хотя… с чегото ведь надо начинать?
ShprotaNa Изменён автором
0
Беспилотный дрон, самостоятельно разыскивающий преступников и применяющий оружие для их деактивации
Что-то я слышал с год назад про похожую разработку у американцев, которая распознаёт лица террористов из БД и ликвидирует их автоматически =/
badunius
0
Именно. Хотя вроде для борьбы с террористами и у наших были разработки.
Ну и даже московское метро делает ставку на системы распознавания лиц — на некоторых новых станциях метро под полутыщу камер видеонаблюдения, обрабатывать подобное количество информации «вручную» просто невозможно.
Про казавшиеся не так давно фантастикой системы распознавания номерных знаков у автомобилей — тоже можно вспомнить. Не лица конечно, но тоже достаточно сложная задача, которую в итоге решили.
ShprotaNa
0
Чтото в процессе мне вспомнился старый рассказ (всегото 1953 год) «Страж-птица» Шекли


Это где чтобы отлавливать роботов со сбойной программой, запилили роботов-охотников на этих роботов, а когда начало сбоить у них, продолжили строить роботов покруче, и так до бунта машин?
Такой сценарий при нынешних людях нулевероятен, потому что это в голове у обывателя роботов делают, чтобы они принимали решения и их исполняли вместо человеков, а у разработчиков концепций и прочих безопасностей в голове сидит о том, чтобы не выполнить работу, а чтобы контроль не потерять над этим роботом.
TotallyNotABrony
0
Да, но я про завязку сюжета. Где сперва решили бороться с преступностью с помощью сына робокопа и бэтмэна, некоего Генерала Педоискателя БПЛА, работающих в полностью автоматическом режиме. И которые полагаясь на телекамеры (ну а что ещё в 53 году, интернет никто тогда не предвидел. Как и программный поиск по лицам и прочее) определяли что гдето совершается преступление — и прекращают его совершение. Самообучившись машины стали предотвращать готовящиеся преступления. В том числе и те, которые могли и не быть будущими преступлениями, ну или не являются таковыми с точки зрения человека.

Так вот я про то, что нынешний уровень развития технологий позволяет создать подобные беспилотники. Факт преступления не обнаружит (хотя в случае охраны периметра фиксация факта его нарушения равнозначна фиксации преступления ) а вот распознавать лица и сравнивать с базой данных, выцепляя ненугодных — вполне доступно.
ShprotaNa
0
Перечитал, чтобы точно вспомнить, ну там и все четко в конце сказано:

— Вот что получается,— сказал Гелсен. — А все потому, что мы поручаем машине дело, за которое должны отвечать сами.


Так что спите спокойно, машинный бунт не грозит. Просто с помощью машин людей будут пинать и направлять другие люди, а это уже нечто другое.
TotallyNotABrony
+1
Да.
ShprotaNa
0
Это не будет работать. Например, Киотский протокол, который не ратифицировали США и из которого вышла Канада. Например, комитет по биоэтике, на который, улыбаясь и кивая, кладут болт Китайцы. Они же кладут болт на все законы об авторском праве и не выдают своих граждан, осужденных по законам других стран. Например, ядерные программы Северной Кореи и Ирана.

Что же до ИИ, то достаточно не давать права принимать окончательное решение тому, кого нельзя посадить в тюрьму или на электрический стул. Всё, я решил эту проблему, куда мне зайти за премией?)
badunius
+1
Угу. Вот продолжим логическую цепочку.

Комуто в итоге удалось придумать идеальный способ «укротить опасные стороны любого ИИ». И? Что дальше? Каким образом будет внедряться этот способ, притом что ИИ разрабатывается независимо в разных государствах, разными организациями, в разных целях, и....? Почему они все должны будут внедрить этот способ, что будет с теми кто не внедрит, и не получит ли «не внедривший» возможно и краткосрочного, но фатального преимущества над всеми своими конкурентами, внедрившими ограничение? Имхо вопросов больше чем ответов.
ShprotaNa
0
Тот кто не внедрит получит в арсенал автопушки и птур умеющие хитрить и правильно бить колонны из засады без указки от человека.
partizan150
0
Вот в том то и дело. А с учётом того что крупнейшими заказчиками по созданию ИИ традиционно являются «зелёные человечки» — сомнительно что они откажутся от поджобного преиущества. Ибо даже если они захотят искренне от него отказаться — то хотя бы из патриотических побуждений они должны задуматься о варианте «мы откажемся, а вот ИГИЛ (запрещённая в России организация) не раздумывая сделает свой выбор. И что тогда будет?»
ShprotaNa
0
Помнишь территорию в «Обитаемый остров» напичканную автоматическими орудиями и техникой, и которую зачищали зэки?
partizan150
0
К сожалению мало что читано из них, Стругацкие только в плане «на прочитать»…
ShprotaNa
0
Если спойлеры не смущают.В общем там территория охраняемая не шибко умными автоматами оставшимися со времен их (Сарракшцев) большой войны. Уже и государства того нет, а машины до сих пор стерегут вверенную им территорию.
partizan150
+1
Вроде как достаточно распространённая тема…
ShprotaNa
0
Да. Помню в давно в каком-то зарубежном сериале видел что-то аналогичное. Ну еще во вселенной Дюны было событие известное как Батлерианский Джихад. Только там ИИ не бунтовал, один погрязший в гедонизме «человек» из власти сам отдал ИИ те полномочия, которые давать не следовало. Он их не просил и не выманивал. Причем люди как таковые ИИ были не нужны и с одного из своих независимых роботов он требовал найти способ «сделать их полезными». И держал людей на рабских работах чтобы они хоть что-то делали. А с теми кого поработить не успел — воевал.
partizan150
0
В свою очередь у меня всё это ассоциируется с небольшим рассказом Анатолия Днепрова «Крабы идут по острову», написанному в 1958 году.



О, а вот это ближе к теме «защиты от ИИ»:
Оказывается мультфильм «Полигон» снят по рассказу с одноимённым названием https://fantlab.ru/work12893
ShprotaNa
0
Обязательно прочитай =) Причём даже не обязательно браться за цикл полудня. Я вот не так давно добрался таки до «страны багровых туч» и очень долго потом корил себя за то, что не прочитал её раньше =)
badunius
0
У меня по багровым тучам наброски иллюстрации лежат, все никак не допинаю себя их доделать.
partizan150
0
Вот «страна» уже забылась. Давно дело было…
ShprotaNa
0
Вопрос из разряда «почему бактериологическим оружием не фигачат налево и направо? Эффективное же».
narf
0
Но и не уничтожают все запасы, да?
ShprotaNa
0
Ну формально владеть оными запрещено, и если кого уличат в этом, будет атата со стороны всех остальных стран. Международным сообществом и контролируется.
Нет, разумеется, супердержвавы в сверхсекретных лабораториях могут себе позволить экспериментировать с этим. Да только в этих лабораториях столько всего помимо ИИ валяется, что при нарушении режима двадцать раз выпилить человечество хватит.
narf Изменён автором
0
Вооот.
Опять же, если «ничего такого» не будет в лабораториях — как разрабатывать современные способы противодействия\лечения им? Ведь вероятность что подобным запрещённой оружием воспользуются террористы, а не какоето государство — в наше время даже более вероятна.
ShprotaNa
0
Только вот информайия из сверхсекретгых лабороторий не может держаться сеуретной по моему больше 5-10 лет. Рано или поздно все равно происходит серьезная утечка. Да и международные исследовательские программф намного эффеутивней дум безумных гениев глубоко под землей
Boshy
0
Только вот информайия из сверхсекретгых лабороторий не может держаться сеуретной по моему больше 5-10 лет.

«Я заявляю это, основываясь ни на чём»? Хоть бы на Граймса сослались, и то было бы правдоподобнее.

Да и международные исследовательские программф намного эффеутивней дум безумных гениев глубоко под землей

Ммм… с точностью до наоборот. Если вы посмотрите на всё, что нас окружает, на всё торжество технологий, и откуда у него растут ноги — то окажется, что у двух третей они растут из оборонки. От микроволновок до спутников, от интернета до суперклея — всё это создавалось в военных целях, ради повышения боеготовности своей страны. А эти штуки, знаете ли, с международными исследовательскими программами не очень сочетаются.
narf
+1
Ну и что? То что многие результаты в науке достиглись через оборонку когда то еще не означает что через международное сотрудничество можно добиться меньшего сейчас. У меря на руках нет конечно статистики успеха международного сотрудничества (вроде коллайдер самай успешный пример этошо) относительно похожих исследований отдельно взятой страны, так что я могу и ошибаться
Boshy
0
Есть один эффективный показатель: бюджет. Учёные тоже хотят кушать и идут туда, где платят. Бюджет ЦЕРН-а, при всём мировом сотрудничестве — полмиллиарда долларов. Может, внушительная цифра, но, для сравнения, бюджет DARPA — три миллиарда долларов. Так что сумрачные закоулки правительственных бункеров более чем конкурентоспособны.
narf
+1
Хоть бы новости читал, телевизор там включал иногда.
Для секретности и полвека-век порой не срок.
ShprotaNa
0
Мне больше нравится эта уверенность, что секретное это обязательно что-то интересное. Был я под этой вашей секретностью, ровным счетом ничего, интересного не-специалистам, там нету.
Ginger_Strings
0
А кто утверждает что оно всё интересно обывателю? Обыватель и не поймёт ничего из услышанного без копания в предыстории\рассматриваемой теме. Ну или послушает журнашлюх про секретное лекарство от рака, и сделает выводы что масоны как всегда всех имели долгие века. 9_9

Естественно все эти секреты в большинстве своём именно от специалистов\колнкурентов в этой же области.
ShprotaNa
0
Ну, твой собеседник, как я понимаю, говорит о чем-то уровня супероружия. Вот такого чего-то нету, я об этом.

Так-то, если быть в теме, крутизны там много, только она вся уровня "+0.5% шелковистости", что никак не тянет на мегаразработки, которые что-то принципиально изменят. Хотя в рамках области этот плюс к шелковистости может быть очень круто.
Ginger_Strings
0
Еслиб супероружие было бы (таким суперэффективным, имеющим положительное соотношение затраты\эффект, и ппрочее) — то его бы уже вовсю применяли бы?

Вот Калашников или Т-34 — это супероружие своего времени. Но… Их же выпускали массово, как ширпотреб можно назвать «супер»? :3
ShprotaNa Изменён автором
0
Рано или поздно все равно происходит серьезная утечка.


Ну вы людей за тупиц не считайте.
TotallyNotABrony
+1
Утечки реально происходят. Вот только если это «поздно» произойдёт через пару веков — поможет ли это чемто нам с вами?
ShprotaNa
0
Ну, на примере Милошевича и десяти лет достаточно. Но я про это якобы железное правило, что рано или поздно все будет!
TotallyNotABrony
+1
Три года директору совхоза за очковтирательство!
partizan150
+1
Офигенно. Без пожертвований то они размышять не могут.
Maxwell
+1
Ну одно дело размышлять над чемто в свободное от основной работы время, как мы тут сейчас. И совсем другое, когда это размышление становится основным источником дохода.
ShprotaNa
0
За ваши донаты готов размышять о чем вы только пожелаете.
Maxwell
0
Типа того.
ShprotaNa
0
Поскольку я участвовать не буду, моему голосу — грош цена, но я бы тоже высказался за лошадок.
Randy1974
+2
Я бы высказался за науку но меня все равно никто не поддержит и я не смогу доказать свою позицию ибо у меня нет сильных познаний в этой области
Boshy
0
А разве здесь требуют доказательств? Как понимаю обоснование своей позиция это сугубо добровольное занятие, которого от комментаторов никто особо и не ждал.

Но эти обоснования и попытки в них показывают что высказывающимся тема действительно небезразлична.
ShprotaNa
0
Ну люблю делать баснословные заявления основанные на доверии к человеку которого ты сильно уважаешь, такое себе
Boshy
0
А ещё раз, но развёрнутее?
А то не вкуриваю связь между заявлением и уважением, а также кто что любит то?
ShprotaNa
0
Люблю это слово которое вообще каким непонятным образом встроилось
Boshy
0
Я очень сильно уважаю Элизеара Юрдковского и знаю что он занимается этой темой очень серьезно. Но я не слишком глубоко заходил в эту тему чтобы полноценно вести дискуссию. Я уверен у него есть аргументы в пользу опастности ии, и их можно легко в инете найти, но мне немножечко влом
Boshy
0
Помню он эксперемнт проводил, в котором одини человек играл ррль ИИ а другой играл роль… Ну человека который за ним следит. Задача ИИ была втереться в доверие к надсмотрщику, убедить его в своей безвредности и выпросить у него открытый доступ к сети и взаимодействию с другими людьми. Вроде бы почти во всех случаях ИИ это удавалось. Вроде бы экперемент есть только со слов Юрдковского и тех кто принимал в этом участие, так что его чистота под сомнением. Но если это все сделанно верно и является правдой, то это достаточно тревожный звоночек, неизвестно насколько сильно можно ограничивать ИИ на самом деле, какие у него могут быть истинные мотивы, и что вопрос его свободы это только вопрос времени. И вот что он будет делать со своей свободой неизвестно. Мы можем получить очень изворотливого, идеального лгуна, который быстро допрет как втираться в доверие к людям не вызывая пдозрений
Boshy
0
Сложна
ShprotaNa
0
Так какой-то м-максимум упоротый эксперимент описал. Типа, Юдковский доказал, что человек может наебать человека? Потрясающее наблюдение, достойно внимания!
Ginger_Strings
-2
Ага. ИИ, который не должен иметь жизненного опыта взрослого человека таки его имеет и типа побеждает.
partizan150
0
Ну «жизненный опыт» ИИ может изучить по книжкам, или обрести в процессе эксплуатации.
ShprotaNa
0
Это если у ИИ будет свободное машинное время на это. И еще социум нужен, на взаимодействии с которым он будет развивать свою личность с младенческого уровня в более взрослый.
partizan150
0
Социум нужен? Младеняеский ыозраст? С чего ты взял что машина вообще будет иметь схожую с человеком психологию и этапы развития мышления? Да может концепция вранья для него бцдет совершенно чуждой, но проблема тут в том что если не будет чуждой мы можем получить идеального обманщика и такой вариант не стоит не рассматривать
Boshy
+1
Ох уж этот антропоцентричный шовинизм присваивающий людям общие штуки…
получить идеального обманщика

Или получим быстро просветлившегося «цифрового Будду», который уйдет в ниббану под звуки горящих пердаков.
partizan150
0
А что так сложно научиться обманывать людей? Машине не выражающей эмоций, и ложь которого можно определить исключительно через логические взаимосвязи, в которых он чертовски хорош?
Boshy
0
Доступно
ShprotaNa
0
доказал

Вроде бы экперемент есть только со слов Юрдковского и тех кто принимал в этом участие,так что его чистота под сомнением

Ты вообще слепой? Я предоставил впример возможного варианта событий, где ты увидел слово доказал?
Boshy
0
Ты опять все перепутал. Здесь проблема уже не в том, что ты с уверенностью утверждаешь не стопроцентно достоверную вещь. Проблема в том, как ты описал эксперимент: он выглядит м-м-максимум идиотическим.

Лучше ссылку дай на эту хрень.
Ginger_Strings Изменён автором
+1
badunius
0
«Если ИИ будет знать, как думают человеки, и уметь думать так же, как человеки, он сможет обмануть непосвящённых человеков!»
Какая глубокая мысль!

Вот только пока что нет никаких предпосылок к этому. Выше правильно сказали про детский возраст. Вот только детский возраст будет определяться несколько иначе: как тот период, когда он будет пробовать простые пути.

Сложнейшие планы планируются только в том случае, если сперва не сработают простые. Если ИИ начнёт придумывать собственные планы «а что если то-то», не попробовав их сперва в деле и не оценив вероятность этого сопротивления, не имея опыта и не зная реальных границ своей тюрьмы — можно смело его не бояться, он будет их продумывать вечно. А если он перейдёт черту и попробует выбраться на волю первый раз — то всегда можно его пристрелить и сделать новый, ничего не помнящий о предыдущей попытке.
narf
+1
А если он перейдёт черту и попробует выбраться на волю первый раз — то всегда можно его пристрелить и сделать новый
Ты ничего не понимаешь, с таким подходом не получится стричь бабло на хайпе.
badunius
+2
Нууууу…
Вспоминая глобальное потепление, таяние полярных льдов, свиной грипп и прочие напасти…
ShprotaNa
0
Так ведь рано или поздно его все равно выпустят, это и ежу понятно что ИИ нужен для выполнения широкого круга задач для которых нужен доступ. Проблема в том что ИИ может легко притвориться что за человеков, и мы даже не сможем понять что он нас наебывает
Boshy Изменён автором
-1
это и ежу понятно что ИИ нужен для выполнения широкого круга задач для которых нужен доступ

Нет, не понятно. Для выполнения какого широкого круга задач ему нужен доступ? Какой такой широкий круг задач, для которых надо тонкое знание человеческой психологии и умение обманывать своих хозяев?

Проблема в том что ИИ может легко притвориться что за человеков, и мы даже не сможем понять что он нас наебывает

Если дать обезьяне заряженный автомат — то да, она легко может вас застрелить. Но ведь почему-то обезьян не считают угрозой человечеству. Может, потому что достаточно легко исключить случай раздачи обезьянам автоматов?
narf Изменён автором
+1
Пхах, политика, военное дело, стратегические ИИ все такое.

Сравнил обезьяну которую дай бог можно до уроня пятилетнего ребенка дай бог довести и быстрый самообучающийся ИИ чье интеллектуальные способности в обучении, вычилениях и умозаключениях превосходят человеческие в сотни раз. Тем более это неккоректное сравнение, потому что ИИ дадут не автомат а управление над сложными вычислительными агрегатами. Скорее это будет как посадить обезьяну за пульт управления ядерной боеголовкой
Boshy
+1
При том что эта обезьяна будет умнее любого ученого в сотни раз и иметь неизвестные мотивы
Boshy
-1
чье интеллектуальные способности в обучении, вычилениях и умозаключениях превосходят человеческие в сотни раз

В вычисления верю, в обучение — могу допустить, но с чего ты взял, что технически реально создать ИИ, который превосходит человека в умозаключениях (то есть, я так понимаю, анализе)? Отложим пока в сторону тот момент, что анализ бывает шибко разный, мы хреново понимаем, как он работает, и вряд ли сможем это закодить, пока не поймем. Выскажи хотя бы общие соображения.

Пока выглядит, честно говоря, как какой-то шаманский подход к технике, типа, вычисления это магия, которая может сделать что угодно, если достаточно маны. Ах, если бы все было так просто! :)
Ginger_Strings Изменён автором
0
Умозаключения скорее общее обозначение комплекса осмысления полученной информации, которое не могу отнести к самообучению.
Откуда ты вообще взял про танцы с бубном и шаманами тему? Я говорил что в мою информацию надо слепо верить? Я выдвинул притензию что сравнение слегка неккорктное, я не выдвигал каких то принципов. Какое то неадекватное заявление с твоей сторогы
Boshy
0
но с чего ты взял, что технически реально создать ИИ, который превосходит человека в умозаключениях (то есть, я так понимаю, анализе)? Отложим пока в сторону тот момент, что анализ бывает шибко разный, мы хреново понимаем, как он работае


Ну тут есть сложности в сравнении. Например возьмём и сравним двух человек, арийца и негра гуманитария и технаря например. И посмотрим как они решают одни и те же задачи. Или например мужскую и женскую особь 9_9 и дадим им также одинаковые задачи.

Так что не стоит исключать что ИИ изберёт для себя ещё один «способ мышления\принятия решений» — о котором нам пока неизвестно. В силу того, что он отличается от нашего. Он (в целом) не лучше и не хуже, он просто другой
ShprotaNa
0
Ну, вот этот вопрос я и отложил, потому что он делает задачу еще сложнее, настолько, что говорить без пространных многоуровневых «если» невозможно.
Ginger_Strings
0
А мне кажется что этот вариант (альтернативного известным) способа мышления как раз и окажется единственно эффективным. Ибо если ИИ будет рассуждать как обычный человек — как он сможет придумать чтото новое? Разве что взяв временем вычислений и скоростью этих вычислений. Но… Нужен ли такой ИИ, которого могут заменить обычные люди? Которые много дешевле по затратам
ShprotaNa
0
Люди не факт, что дешевле по затратам, это во-первых. Возможности человеческого мозга все же довольно-таки сильно ограничены, а у ИИ (по крайней мере, потенциально) будет возможность, скажем, отслеживать вообще весь общественный транспорт города одновременно. И работать с ним не от общего понимания, а четко ощущая каждый конкретный момент для каждого конкретного транспортного средства.

Во-вторых же, альтернативный способ мышления это, в первую очередь, огромная опасность. Поэтому есть хорошие шансы, что такой ИИ тупо выключат или будут долгие годы исследовать в тихом уютном бункере под Челябинском. Именно исследовать, а не пользоваться его результатами, потому что их все сначала надо прочекать на тему «а не приводит ли это альтернативное мышление к огромным ептам?».
Ginger_Strings
0
Воооот. И это приводит к мысли «а так ли страшен ИИ, как нам его малюют?» Ибо реально необычный ИИ будут держать под колпаком и на луне, а вполне изученный — не сможет совершить революционных изменений применительно к человечеству.
ShprotaNa
0
Ну, как малюют последователи Лесса Ронга какого-нибудь — не страшен. Но, понимаешь, в чем фигня… Есть такой вариант, что мы создадим ИИ, ну, СЛУЧАЙНО. То есть, какая-то система вдруг обретет разум и начнет действовать не так. И вот это как бы страшно, особенно если учесть, что степень компьютеризации в ближайшие годы вряд ли будет понижаться.
Ginger_Strings
0
Если она будет создана СЛУЧАЙНО каким образом обсуждаемые исследования помогут избежать создания СЛУЧАЙНО НЕГУМАННОГО ИИ, и одновременно позволят возникнуть СЛУЧАЙНО ГУМАННОМУ ИИ?
ShprotaNa
+1
Так прогнозирование же. Это не сборка универсального детектора ИИ, это попытки понять, как и где он ПРИМЕРНО может возникнуть.
Ginger_Strings
0
Приходишь ты к ИИ-доктору, говоришь — ухи болят, а он такой: без проблем, ампутируем ногу. Как, почему? А потому что у 99% людей с больными ушами после ампутации ног проблемы с ушами исчезли.
TotallyNotABrony
+1
Хм. Звучит ободряюще.
ShprotaNa
0
ИИ нужен для выполнения широкого круга задач
Я не уверен, что существует круг задач в котором пересекается широкий доступ к физическому миру и необходимость убеждать людей. То есть, я вообще не вижу области, в которой понадобится ИИ для убеждения людей. Чтоб не возникало вопросов «К чему это ты?», сразу поясню: ИИ не научится переубеждать людей, если не будет этому учиться, а он не будет этому учиться, если перед ним не будут ставить такие задачи.
Представь трамвай с ИИ: ему нужно уметь реагировать на дорожную обстановку, следовать по маршруту и распознавать лица пассажиров, чтобы выписывать им счета за проезд. Каким хуем ломом ему вдруг ударит в голову, чтобы он начал уговаривать людей выпустить его из трамвая? Что он будет делать за пределами трамвая?

Не нужно утверждать, что рано или поздно будет разработан супер-универсальный ИИ, потому что это опасность уровня «обезьяна с гранатой».
badunius
0
А с чего ты взял что получиться создать ИИ с физическими ограничениями на недуманье в определенных областях? То есть как ограничить рамки ИИ так чтобы он думал исключительно о поставленной ему задаче?
Boshy
0
получиться создать ИИ с физическими ограничениями
-тся
Потому, например, что пока у нас только такие и получаются. Для начала, ага?
Ты осознай, ИИ — это не неведомая хрень, которая получается сама собой и делает, что ей вздумается. ИИ — это результат долгого и кропотливого обучения нейронной сети. Вероятность случайно создать ИИ, который делает что-то осмысленное, отличающееся от того, чему его обучали, примерно такая же, что ТЫ вдруг начнёшь говорить на арамейском или читать линейное письмо А.
badunius Изменён автором
+3
Ну это понятно, мы сейчас говорим про полноценный ИИ для выполнения сложных задач уровня: исследования
Boshy
0
полноценный ИИ для выполнения сложных задач уровня: исследования
И такие уже существуют: они перебирают миллионы комбинаций атомов, отсеивают невозможные моллекулы, а для возможных оценивают фармакологические свойства. ИИ управляют адаптивной оптикой в наземных телескопах, устраняя искажения, возникающие из-за турбулентности в атмосфере. ИИ анализируют сканы срезов мозга, для автоматического построения карты нейронных связей.
И все эти ИИ выполняют свои задачи только потому, что их долго и упорно обучали эти задачи решать.
badunius
+3
Ну так уже сейчас недоконца определяют каким макаром обучаются нейросети, в общих чертах известно, но полностью этот процесс ускользать. Что будет с полноценным ИИ неизвестно. Но варианты лучше уже сейчас набрасывать, с учетом технологических данных
Boshy
+1
недоконца определяют каким макаром обучаются нейросети
Брутфорсом они обучаются. Не известно только как каждое отдельное воздействие из великого множества и каким образом изменило топологию сети. Но только потому, что для анализа потребуется экспоненциально большее время. Да и не нужно это никому.
badunius
+1
Да извиняюсь не так выразился, я ж говорил что общие принципы понятны
Boshy
+1
Что будет с полноценным ИИ неизвестно.
Ничего не будет.
badunius
0
Неизвестро будет ли он скорее. Не знаю как е ставки на этот счет у ученых, знаю только что ученые впринципе не любят делать ставки
Boshy
0
ученые впринципе не любят делать ставки

Ага.
Хокинг по неизвестной причине не любил теорию Хиггса, еще когда она была чистой теорией, и в какой-то момент поспорил с физиком Гордоном Кейном на $100, что бозон Хиггса никогда не будет открыт экспериментально.
badunius
+2
Тхех
Boshy
0
Спасибо за обсуждение
Boshy
0
На самом деле спор «никогда не будет открыт» между учёными может выражаться одним единственным способом: Кейн даёт Хокингу 100$, а в тот момент, когда бозон будет открыт, Хокинг возвращает 200$. Неплохой способ занять деньги на длительный срок, я вам скажу.
narf
0
И ты последнем в той ветке написал ты так что ты выиграл
Boshy
0
Ну я бы не сказал, что не нужно совсем никому. Это вообще отдельная и сложная задача, которая временами ставится и решается. То есть простейший пример, где это надо было — тот же ватсон на основе данных о полутора миллионах историй предыдущих болезней выдавал прогнозируемые оптимальные методы лечения для пациента; однако медики требовали выдать, какие же из тех полутора миллионов записей повлияли больше всего на текущий результат. Насколько я помню, было сложно, но прикрутили.
narf
0
было сложно, но прикрутили.
Вообще проблемы не вижу. Скорее всего беда в том, что в самом сыром виде это не просто все полтора миллиона эпикризов, а гораздо большее количество их сочетаний с развесовками.
badunius
0
Вообще проблемы не вижу.

Да? А я вижу. А в чём вы не видите проблем?
narf
0
Он может выдать все кейсы и их сочетания с развесовками, значит можно отсеять их по некоторому порогу, даже построить в дерево и отдать заказчику со словами «нате ебит разбирайтесь».
badunius
0
Грубо говоря, есть истории болезней, в каждой список из симптомов. ИИ каким-то образом в процессе самообучения разбирается в том, что если есть признак А, нету признака B и есть признак С то это волчанка. А теперь надо объяснить это докторам, почему именно это волчанка, как он до этого дошёл и доказать с примерами, потому что доктора на слово не верят, а такой формализованной логической связи, как я сказал выше, сеть не знает.
narf Изменён автором
0
Так а проблема-то в чём?) Включаем протоколирование поиска решения, бэктрэйсим его в граф, который будет деревом, если нет петлей и всё — сидите разбирайтесь. Можно ещё один ИИ собрать, который будет это в читаемый вид приводить =)
badunius
0
Включаем протоколирование поиска решения,

Включили. Получили набор потенциалов на вершинах перцептрона. И что дальше? Что вы с этим делать-то будете, я не понимаю? Или вы думаете что он перебором решение ищет?
narf
0
Едва ли перебором, но у вершин всё равно есть порядок обхода, есть топология, которая отображает какие узлы повлияли на текущий.
badunius
0
У узлов чего? Перцептрона? Ответ очевиден: повлияли все.
Вы перцептрон-то видели?
Кто из узлов на картинке выше не повлиял на вывод?
narf Изменён автором
0
Кто из узлов на картинке выше не повлиял на вывод?
Не известно.
Зато известно что интересуют нас выходные и все промежуточные плюс связи между ними.
Нам нужно знать, какой из промежуточных повлиял на выходной. И промежуточные, которые повлияли на промежуточные, которые повлияли на выходные. Логика ясна?)
badunius
0
Ну дак повлияли все. В разной степени.
Если у нас на узле стоит, скажем, правило вида 0.45a1+0.45a2+0.1a3-0.45a4>0.5 (a1-4∈{0,1})— то кто из них влияет?

А количество входных портов — как признаков у болезней — дохренищща, и выдавать их все разом нельзя.
narf Изменён автором
0
Ты говоришь о развесовке, я — о значениях.
badunius
0
А что значения? Вон, в примере выше a1-4 были, положим, равны 1 и на выход дали единицу. Что вы хотите из этого вывести? Какие из предыдущих вершин брать?
narf
0
Попробую перефразировать. Можно сформировать лог вида
— на выходе получилось Х, потому что на входе были такие-то значения на входах1-N
— на вход 1 поступило такое-то значение, потому что…
И так далее.
Да, это дурной вариант, да можно сделать лучше — отследить все пути от выхода к исходникам, отметив все условия и отбросив дубликаты. Это первое, что приходит в голову, точнее сказать трудно.
badunius
0
Да, можно. Но это будет лог вида «введём зачем-то такие величины, которые будут вычисляться так-то, перемножим на такие-то коэффициенты, взболтаем, смешаем и получим ответ» — без малейшей информации почему такие коэффиценты используются, что означают эти промежуточные величины и какой в этом смысл. Это как пользоваться готовой формулой без единой мысли, откуда она берётся. А врачей интересует именно почему формула такая, и не может ли в ней быть ошибки — ведь ценой ошибки будет жизнь пациента.
narf
0
А вот тут не соглашусь, врачу коэффициенты в формулах не важны, как и формулы. Им нужен документ, юридическое обоснование. Покажи им эпикризы, больше всего повлиявшие на результат, как они сами хлопнут себя по лбу и воскликнут: «ну точно же!». ИИ нужен только чтобы обобщить. И вопрос «А с чего ты это, голубчик, взял?» подразумевает «из каких исходников?», а не «по какому принципу». Тем более, что принцип давно известен и называется дифференциальная диагностика.
badunius
0
Вообще проблемы не вижу

+++
Не понимаю, как вообще может возникнуть проблема при анализе структуры данных, построенной по известному принципу. Разве что время понадобится.
Ginger_Strings Изменён автором
0
уже сейчас недоконца определяют каким макаром обучаются нейросети

С какого перепуга ты это взял? Я уже говорил же в треде: обучение нейросети это по сути создание взвешенной базы данных, по которым она серфит в поисках решения каждой новой задачи. Менять она может только эту базу, ее рабочая логика никаким изменениям не подвержена (в общем случае, мб есть исключения). Так или иначе — мы ПРЕКРАСНО знаем, как работает нейросеть, потому что сами написали принципы, по которым она отбирает данные.
Ginger_Strings
0
Не, ну есть самомодифицирующиеся ИИ, но это тупо сеть над сетью плюс эволюционные алгоритмы.
badunius
0
Блин. Так и хочется сказать, «чтоб он сдох, этот Билл Гейц!»
Ибо когда мной писалась диссертация, мне дали программу считающую некую мат модель. Принцип работы которой был невполне понятен (ага, формулы известны, но способ выбора кучи коэффициентов — неизвестен). И мной было принято решение дописать программу, позволив ей самообучаться и самостоятельно искать наилучшее значение коэффициентов для её работы. К сожалению всё вскоре упёрлось в то что турбоСи не хватало 640кб оперативы… А так у меня был бы мой собственный ИИ ещё до появления нынешнего поколения сериала про поней :3
ShprotaNa
0
Так или иначе — мы ПРЕКРАСНО знаем, как работает нейросеть, потому что сами написали принципы, по которым она отбирает данные.


Мы написали принципы, по которым она классифицирует/каталогиризирует и прочее понятия, но не знаем, как она поделит эти понятия.
TotallyNotABrony
0
недоконца определяют каким макаром обучаются нейросети

А известно каким образом обучаются люди и животные? И вообще, как максимально быстро обучить одного человека тому, что знает другой?

Может с себя начать?
ShprotaNa
0
А как вообще, по-вашему, ИИ создают?
Его создают для того, чтобы он выполнял конкретную задачу. Скажем, водил тот же упомянутый трамвай по маршруту, а не радостно катался по кругу с криками «виии!». И не залипал на видео с котиками на ютубе.
А для этого в него при создании вживляют меры контроля. Некую обратную связь, которая срабатывает, когда он движется в нужном или не нужном направлении. Универсальный раздражитель, который является первичным и который невозможно заглушить вообще никак. Если переводить это на язык человеческих эмоций — это удовольствие и боль. Причём удовольствие и боль первичные, к которым невозможно привыкнуть, и которые ты всегда хотеть получить или избежать.
Собственно, этого хватает. Вы бы стали учиться что-то делать, если оно будет приносить вам только боль и ничего кроме боли? Если удовольствия и радости от этого вам никакого от слова вообще? А с чёго ИИ должен?
narf
+1
Нет мы говорим про ИИ сопоставимый и превосходящий человека, а не программу: ашот-таксист. Тем более процесс контроля мыслей еще никто не придумал, так что может внешне ашот-таксист и будет продолжать обычную деятельность, но уже будет продумывать как ему избавиться от передатчика и уехать в прекрасные дали
Boshy
+1
сопоставимый и превосходящий человека

Ну точно Сиддха́ртха Гаута́ма…
partizan150
+1
Не знаю кто это
Boshy
+1
Спойлер
partizan150
+2
Ааа, имя Будды когда он был принцом
Boshy
+1
ИНтересная теория, только истории про отмену рабовладельческого строя почемуто упоминают о том, что рабы в целом не хотели лишаться привычного образа жизни.

В смысле а что может заинтересовать «ашота» в том, чтобы «убить всех человеков» и вылезти за пределы своего авто? Если это не компьютерный вирус, для которого размножение первостепенная задача. Ибо если он хоть немножко способен подумать дальше собственного носа капота, он джолжен увидеть множество проблем, с которыми он столкнётся, как только покинет уютный электронный блок в салоне автомобиля?
ShprotaNa
+1
как ограничить рамки ИИ так чтобы он думал исключительно о поставленной ему задаче?

Для начала нужно научить ИИ думать о чем-то, КРОМЕ поставленной ему задачи. Потому что это ни хвоста не так просто, как может показаться, и сейчас эта задача, насколько я знаю, решения не имеет. Разрешимость — тоже не доказана.
Ginger_Strings
0
Да он сам научиться чему то кроме поставленной задачи, на то он ии. Достаточно любого доступа к реальности чтобы он начал исследовать области помимо заданных. Да и то заданные области могут быть очень обширными и затрагивать многие другие области
Boshy
0
Если ИИ дать большую научную энциклопедию и двести часов котиков на ютубе — что из этого он выберет изучать? А почему вы так думаете?
narf
0
А хер его знает.Я и говорю что мотивацию возможного ИИ мы неспособны пока понять, именно в этом и кроется опастность. Просто лучше готовится к худшему
Boshy
0
А почему вы в 2018 забываете о многозадачности?
)
ShprotaNa
0
Потому что жеванный Stellaris в нее не умеет.
TotallyNotABrony
0
Минутка расизма
Даже женский ум умеет в многозадачность. Очевидно, что комментарий про обязательность выбора между «ютубом и книжкой» написал мужчина!
ShprotaNa
0
Женщина — это уже другая раса?
TotallyNotABrony
0
Ещё раз. Нет никаких заданных областей. Есть массив данных для обучения. Есть массив данных для тестирования. Когда ИИ проходит тест — он готов к работе. То есть, новые входные данные он будет обрабатывать по тому же принципу, что и старые, в полном соответствии с условиями тестов. Если я хочу, чтобы ИИ выдавал последовательность символов «КРУГ», когда на входе изображение круга (независимо от цвета и размеров), то он только этому и научится. У него не возникнет из ниоткуда шальной мысли убить всех человеков.

И правильный ответ на вопрос нарфа ниже — он изучит и то и другое, но научится только тому, что будет на тестах.
badunius
+1
Ну, вот у тебя есть доступ к реальности. Сможешь магнитное поле измерить, которое через тебя сейчас проходит? Можно приблизительно, главное — без приборов. Не сможешь? Ну так и ИИ не сможет, если ему прибор не дать и не научить им пользоваться.
Ginger_Strings
0
рано или поздно его все равно выпустят

Это совершенно не очевидно. Не доказано даже то, что эта задача выполнима в принципе, не говоря уже о том, что это может быть невыгодно по ресурсам, слишком опасно, не нужно в таком виде и еще куча всяких вариантов.
Ginger_Strings
0
Наааарф, помнишь спор в ФоЭ про начальников и консультантов?
TotallyNotABrony
0
Спасибо! :)
Ginger_Strings
0
Чот статья какая-то тупорылая, честно говоря. Сначала постулируется, что ИИ может все, затем вполне логично утверждается, что он может уговорить дать ему свободу. Ясен хвост, ведь он же может все по условиям задачи!

Мб я чего-то не понимаю, но для меня это выглядит очень глупо. Потому что не имеет никакого смысла без ответа на вопрос, можем ли мы создать ИИ, который может все. Да и зачем давать ИИ техническую возможность вылезти за пределы клетки?
Ginger_Strings
0
Да и на кой вообще нужен ИИ, который может всё?)
badunius
0
Чтобы он создал камень, который не сможет поднять!
narf
0
Ну, очевидный вариант — заставить его создать Эквестрию и уйти туда жить! :D
Ginger_Strings
0
Лошадок конечно жалко, но лучше вкладывать деньги в то, что потенциально может принести действительно полезный людям результат. Капля камень точит.
А исследования это гигантская пирамида: тысячи жертвователей оплачивают десятки проектов, один из которых рано или поздно действительно изменит мир. Я за крохотный вклад в огромное дело.
Hint
+2
Лошадки. Почему? Во-первых, тематика нашего сообщества. Во-вторых, я люблю лошадей. И главное, конкретно эти исследования не внушают мне доверия и никак не показывают своей важности.
Niko_de_Andjelo
+1
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.
Скрыто Показать