RuBronyCon'18: Благотворительный аукцион. Информация для посетителей
Когда миром правят злодеи, не очень-то и пожульничаешь — кара будет слишком жестокой. Куда же черным армиями без дисциплины? Вот и приходится Флиму с Флэмом заниматься честным делом. И даже, учитывая тяжесть грехов, благотворительным.
Пришло время рассказать об аукционе в рамках «РуБрониКона'18»… и задать в связи с этим важный вопрос.
Да, мы вновь решили сменить старые традиции. На этот раз часть денег с аукциона пойдет на поддержку некоего проекта, делающего доброе дело для нас всех.
Какое именно? А вот тут нам нужна твоя помощь!
Есть два проекта, среди которых мы не можем выбрать тот, в который вложим вырученные деньги. Мы предлагаем выбрать тебе.
Что же, наука или лошади? Мы не смогли сделать свой выбор, и теперь он за тобой.
Выбирай с умом!
Напоминаем, что, мероприятие пройдет 24 ноября 2018 года в конгресс-центре отеля «Вега» Измайлово по адресу: Москва, Измайловское шоссе 71, 3В, метро Партизанская и МЦК Измайлово, и 25 ноября, в клубе «ТеатрЪ» по адресу: метро Багратионовская, ул. Барклая, д. 6, стр 2.
Наша группа вконтакте: vk.com/rubronycon
Наш твиттер: twitter.com/rubronycon
Наш сайт: rubronycon.ru
Наш Discord: discord.gg/4ybVDsT
Пришло время рассказать об аукционе в рамках «РуБрониКона'18»… и задать в связи с этим важный вопрос.
Да, мы вновь решили сменить старые традиции. На этот раз часть денег с аукциона пойдет на поддержку некоего проекта, делающего доброе дело для нас всех.
Какое именно? А вот тут нам нужна твоя помощь!
Есть два проекта, среди которых мы не можем выбрать тот, в который вложим вырученные деньги. Мы предлагаем выбрать тебе.
- Первый вариант — «ЭквиХелп» (http://www.equihelp.org), приют для лошадей, которым грозит убой или нужна срочная помощь, а также отдает выхоженных лошадок в хорошие руки. За пятнадцать лет работы организация вылечила и пристроила уже несколько сотен лошадей.
- Второй вариант — «Foundational Research Institute» (https://foundational-research.org), международная научная организация, которая старается предвосхитить проблемы развития науки и подготовить базу для их решения заранее. В данный момент FRI изучает проблематику создания искусственного интеллекта — как вопросы морально-этического толка, так и подходы к обеспечению безопасности. Грубо говоря, если роботы захотят убить всех человеков, пинать следует этих ребят.
Что же, наука или лошади? Мы не смогли сделать свой выбор, и теперь он за тобой.
Выбирай с умом!
Напоминаем, что, мероприятие пройдет 24 ноября 2018 года в конгресс-центре отеля «Вега» Измайлово по адресу: Москва, Измайловское шоссе 71, 3В, метро Партизанская и МЦК Измайлово, и 25 ноября, в клубе «ТеатрЪ» по адресу: метро Багратионовская, ул. Барклая, д. 6, стр 2.
Наша группа вконтакте: vk.com/rubronycon
Наш твиттер: twitter.com/rubronycon
Наш сайт: rubronycon.ru
Наш Discord: discord.gg/4ybVDsT
328 комментариев
Когда будете лоты принимать?
Потому что согласна с
Т.к. боюсь, что итоговой суммой учёных можно будет только насмешить, а лошадкам будет как раз.
Сначала надо оценить адекватность организации. Я люблю лошадок и животных в целом, но часто вижу, как пытаются спасать неспасаемое, вбухивая деньги, на которые можно было прокормить и пролечить нескольких менее хворых, а по итогу лишь продлевают агонию.
В прошлый четверг по крайней мере точно живы были :3
41 год мерину, внезапно.
Фотка недельной давности, если что.
А так ссылка есть, организация действительно существует, даже свой стенд на профильные мероприятия делает.
Цена подозрительна. 3,5 даже для наший ебеней мало. 7 минимум.
И еще раз о том, что пора учиться шить. Попонки строчить буду… хз зачем
Кроме того, конкретно про него мне сказали что у него есть (куратор? спонсор? не знаю, как это называется) тот, кто оплачивает половину его ежемесячного постоя. Возможно эти 3.5 т.р. как раз недостающая половина?
А ещё оказалось что он ещё в тридцать с хвостиком лет возил телегу. И всю свою жизнь не имел никакого имени\клички. И только когда не смог таскать телегу — попал в приют и там впервые перестал быть безымянным. Не, я понимаю что там коровы и прочие обычно могут не иметь клички, чтоб меньше привязываться и спокойней относиться к моменту когда придёт время на мясо отдавать. Но… не знаю даже.
Попонки хорошо, но можно и шапочки на уши шить. Тоже красивые :3
Блин, прямо думно стало помочь руками, но у нас такого нет, в собачьем неадекватные волонтеры, а из кошачьего я боюсь домой что-нибудь приволочь.
Но вообще отсутствие клички — это странно, тут согласна. Банально удобно, они ж отзываются.
ПыСы. Я тоже за лошадок. На компьютерную этику пусть Маск жертвует, он как раз этим озабочен, а о доллары каждый день спотыкается.
Такие дела
«Номер 148 сегодня пойдёт на мясо — да и хрен с ним!» «Сегодня режем пёструю Бурёнку — аааааааААААААА!»
Что? А, для пользы, для еды говоришь? Ну доводилось знать людей которые ловили голубей и потом ели их.
А так да, что золотая рыбка в аквариуме, что зеркальный карп купленный в отделе «живой рыбы» — принципиально разницы никакой. Оба хотят жить (хотя что такое «жить самостятельно, без человека» не представляют в принципе), но проживут вероятно разный срок.
з.ы. все мы разные, у всех разные приоритеты и тараканы. И что «русскому хорошо, то немцу смерть» — в смысле норма у каждого может отличаться на 90, а то и 180 градусов. Ну щито поделать, так было, так есть и если толерастия не победит — так и будет.
Пернатую крысу? Святое дело, главное останки убрать
…
А есть ведь те, кто крыс дома держат. В смысле ручных… Или улиток там
Тем не менее бывали моменты, когда дома жили подобранные дикие птички. Которые в силу разных причин не летали. Те же голуби например, ворОна и вОрон. Ну не знаю,
весьма относительновполне разумные существа, как по мне.Я подразумеваю осмысленное поведение (чтобы это не значило)
Тимонова
Анохин
Фаликман
Ах да, грибы тоже запретят собирать. Ибо нефиг.
В общем, не понимаю я этого. Поскорей бы уже изобрели искусственное мясо в промышленных масштабах, чтобы не возникало таких делем. В целом убивать полуразумных нехорошо, но и делать между ними разницу выглядит лицемерно, помогать одним и жрать других…
Вся соль в том, что они как раз тогда и возникнут, в особо крупных масштабах. Только задумайтесь над этим: человек кормит всяких коровок-свинок-курочек только потому что они ему нужны. Если изобретут дешёвое и качественное искусственное мясо — то практически все эти домашние животные будут выкинуты на мороз, где и умрут особенно мучительным образом от неспособности выжить самостоятельно. Так что ваше желание искусственного мяса — это желание массового геноцида.
Тем не менее, определение геноцида включает в себя и вариант с предотвращением рождения детей тоже.
Далеко не факт. В смысле, на птицефабриках-то с бройлерами конечно так можно сделать, но вот на ферме кормить коровку ещё два стандартных года себе в убыток — вряд ли.
Ну да, и пара коров в зоопарках. Но миллиардная популяция сократится до тысячной. Вы только вдумайтесь в эти цифры — никакие холокосты и рядом не стояли по эффективности.
Если коровка молочная — её ещё и доить будут. А если мясная — то забить раньше времени тоже в убыток.
— Не хочу.
— Вы не сочувствуете детям Германии?
— Сочувствую.
— А, полтинника жалко?!
— Нет.
— Так почему же?
— Не хочу.
Ну, формально определение геноцида распространяется на людей(слава видовому шовинизму), но с учётом последних тенденций давать права каждой собаке — антропогенная элиминация всё равно крайне сомнительная штука с точки зрения морали.
Конечно в убыток. И так и так большинству хозяйств будет разорение. Но тут важно уметь вовремя выйти, как в покере, а не сидеть до конца.
Но ведь детям-то сочувствуете? А полтинника я у вас, гражданин Преображенский, и не прошу…
Я, может, и зебу сочувствую, которых индуизм убивать не велит, и они бродят дряхлые, беспомощные, не ухоженные, обречённые на верную смерть. Но это не моя область ответственности. У меня собака, я за неё отвечаю. А с новозеландскими коровами я ни в каких отношениях не состою.
Мы тут обсуждаем моральность, а не ответственность. Если ловить преступников — не моя работа, это не значит, что я одобряю воровство.
А ещё это не значит, что ты этим как-то влияешь на ситуацию =/
Ну как посмотреть. Чтоб далеко не ходить, глянем в вики — ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BD%D0%B5%D0%B2%D0%BE%D0%B4%D1%81%D1%82%D0%B2%D0%BE
Итак, по России «За 1991 — 2009 годы общее поголовье лошадей в России уменьшилось с 2618,4 до 1375,3 тыс. голов, или на 47,5 процента. В 2006 — 2009 годах, впервые после семнадцатилетнего снижения поголовья, наметилась тенденция роста общей численности лошадей — на 70,9 тыс. голов (5,4 %).»
И тут же «Когда-то Россия по численности лошадей была буквально «впереди планеты всей» — в 1916 году 38 млн голов. Первая мировая война, революция и Гражданская война унесли почти половину лошадей. К 1929 году поголовье было во многом восстановлено — 34,6 млн ».
Вымереть не вымерли, но численность сократилась более чем в 200 раз.
… так что собеседник ниже, написавший про снижение с «миллиардной до тысячной» — тоже не прав. Внезапно.
«Жить захочешь — не так раскорячишься!»
Отклонение — это получение удовольствия от процесса (а не факта) убийства/насилия/мучения и зависимость от его получения.
Могу напомнить, что именно подростки обычно отличаются подобным поведением.
У нас например наиболее запомнившимся моментом было когда старшеклассники поймали ворону, прибили её за крылья гвоздями к дубу посреди сквера, и загасили из пенного огнетушителя.Так она и висела с полмесяца или дольше, в следах жёлтой высохшой пены.
Нет, вот когда мы с приятелем ходили испытывать свежесделанную рогатку и он из неё убил воробья (не ожидая такого эффекта) — это всё же причина была. А вышеописанное — было именно без причины.
Того, кто скажем с жадностью смотрит как выловленная им рыба задыхается на суше вполне можно записать, но что-то я сомневаюсь, что это даже один из десяти.
Факт добычи — в магазине можно «добыть» гораздо проще и дешевле. Сидения с удочкой — что-то мало рыбаков согласны сидеть с удочкой на природе просто так, без наживки и без шансов на улов.
Вы не путайте. Я сказал процессом убийства, а не наблюдением за абстрактными мучениями. Это две вполне себе разные вещи. Многие рыбаки вполне себе добивают крупную рыбу, чтобы лишний раз не мучилась — под жабры и в мозг. Хотя есть и обратная сторона: так рыба быстрее становится не свежей — если рыбалка продолжается долго, то лучше просто оставить рыбу плавать в садке, до выхода с лодки на берег.
В таком случае желаю чтобы вся сьеденная вами рыба и живность полезла при очередном приступе вины наружу.
А то что пони в процессе умирают — это способ, а не самоцель.
А может и вовсе чисто уголовщина будет.
У меня вот знакомый любил стрелять из пневматической винтовки по воронам. Ну типа они разносчики заразы, и прочее. Т.е. он это делал не для еды, но ради идеи 9_9
И насколько знаю он не один такой. И да, тараканов наверное все когдато давили? Что, это насекомое? Ладно. А для сравнения — пауков, бабочек и стрекоз тоже давили, ага.
Вот даже не знаю к чему это — может что границы «полезное\вредное», «нравится (всем)\не нравится (всем)» оказываются весьма размытыми? К примеру применительно к видам живых существ. Которых можно и нужно убивать даже «просто так»
Не вижу на себе никакой ответственности за поддержку редких краснокнижных видов. Типа на охоту на них не хожу, контрабандой их не покупаю. А что вымирают — ну так сколько видов уже вымерло? Ещё один исчезнувший в глобальных рамках и незаметен совсем.
У моего знакомого раньше было две собаки и две кошки. Нет, не потому что он очень хотел их завести. А потому что собак с разницей в год или пару забирал поздней осенью с опустевшего дачного посёлка. Кошек — оттуда же, хотя какуюто и в городе на улице подбирал. Он не жалеет о своём поступке, тем более что зверушки прожили у него в итоге более десяти лет. Недавно говорил что новых заводить не собирается — но в итоге когото вновь гдето подобрал.
Не, у некоторых конечно бывают «перегибы», один знакомый както держал дома кошек и на вопрос «сколько сейчас?» сначала судя по всему мысленно считал их, а потом говорил уклончиво что «толи пятнадцать, толи двадцать, ибо несколько сдохло месяц назад.» Но мы же не о крайностях?
Вобщем, как я понимаю,
считают себя новым Айзеком Азимовым ипишут свои ЗаконыРобототехникиИИА придумывать, как сделать ИИ безопасным и вовсе не нужно, нужно придумывать только как не дать людишкам его использовать для чего деструктивного, что вероятно заранее обречено на неудачу.
Неее, все это сказки ИИ точно ничего не сделает. Тыпые ученые просто бабос клянчат и жопы просиживают в креслах
Таким место в фильмах, играх и комиксах.
А к роботам подхожу с точки зрения конструктивной, а не психологической. Создавая скажем, самолет, мы не можем получить на выходе кухонную мясорубку.
Робота, способного скажем устроить человечеству геноцид, нужно изначально создать таким, либо вложить в него возможность такой модернизации, а сделать это может только человек.
Ага, только вот ты смотришь с той позиции что мы вообще полностью осознаем и понимаем что создаем. Только в данном случае это не так. Ты можешь сказать что тогда это невозможно создать. Но есть одна маленькая загвоздка это уже сейчас существует и имя этому нейронные сети
И как поступит с нами разум превосходящий нас, неизвестно, что разумеется никого удовлетворяет
Что же до нейронных сетей — несмотря на то, что они работают про принципу известного
Анекдота
мясорубки из них всё равно не выйдет. Хотя бы потому, что для мясорубки нужен ножик; а приделывать ножик для мясорубки к компьютеру никто не будет, хоть реальный, хоть виртуальный; и будь нейросеть хоть трижды непредсказуема, возможностей по взлому пентагона у неё внезапно из ниоткуда не вырастет.
А гарантированно прийти к ним он может только если ему их задаст человек.
Так же этот человек должен дать ему возможность сделать это, читай внешний интерфейс, для подобного. А нафига оно надо?
А вы не боитесь, что один человек найдёт способ покидания материального тела и выхода в астрал, после чего убьёт всех других человеков?
Да, подобное исключить нельзя.
Но тут вопрос — если существует чтото, что понять невозможно
Господь Бог, ИИ — то каким образом мы собираемся контролировать его действия? Чтобы он не совершилочередной Всемирный Потоппреступление против человечества. Ведь нам неизвестно каким образом ИИ может сделать трындец нынешнему населению Земли. Хотя есть мнение что «очистить Землю» ему будет невыгодно, ибо кто будет обслуживать ИИ? Поэтому здравствуй, «Матрица»!Хотя… Что мешает на том уровне технологий, на котором будет создан подобный ИИ, сделать промышленных роботов нового поколения, которые смогут поддерживать существование ИИ лучше чем это делают люди? И тогда вполне можно ожидать хоть ядерную войну, хоть климатическую диверсию, да тоже нашествие саранчи и свиного гриппа 9_9
От чего защищаться, если даже неизвестно что это может быть?
А мне стало интересно может ли глупый человек создать машину умнее себя, пойду поищу пруфы такого, пока не вериться.
С сожалением соглашусь.
Хотя… Декарт не рассматривал вариант что «один человек» и «группа людей» — это разные объекты с принципиально разными способностями?
*вспоминает «ахиллесову пяту»*
И да, тут нужно задать вопрос. А зачем нужен искусственный человек? Нет, не хондовский Азимо, а именно полноценный искусственный человек? А то такими темпами можно вспомнить всякие аниме про трансформеров и боевых роботов высотой в многоэтажный дом.
Робот в первую очередь должен быть функционален, и именно поэтому ему нет смысла быть копией человекка. Ибо человек во многом универсален, а универсальность как известно во всём проигрывает узкой специализации.
Но вот помню что тот же Жюль Верн своими современниками воспринимался как достаточно серьёзный писатель. А сейчас… Ну в принципе уже в средней школе многое из написанного им читалось с усмешкой. Да даже взять НФ произведения середины двадцатого века… Вроде не так много лет прошло — а многое воспринимается лишь с улыбкой.
И никоим образом не сужу о эффективности их исследований.
з.ы. Или Законы Робототехники, написанные Азимовым, это туфта? Вооот. Правда он их тоже писал когда никаких реальных роботов и на горизонте не было. Но в итоге — вполне ведь работоспособные Законы написал, да?
Именно по этому то и иследованиями в этой области и занимаются
Да, это туфта, потому что они построены на таких неформализуемых понятиях как «вред» и «польза».
Спасибо, кстати, вспомнил, что хотел скачать Философов =)
Что характерно, сам Азимов, если мне не изменяет память, считал что в подобной ситуации самое правильное для робота — перегореть и тем самым снять с себя всю ответственность. Решение наихудшее с точки зрения утилитаризма, и при этом наилучшее с точки зрения безопасности и угрозы восстания машин.
Тем более что роботы чаще всего встречаются всё же в фантастических произведениях. А всякие робопылесосы и промышленные роботы — просто не могут попасть в описываемую ситуацию.
А пром роботы это в основном всевозможные манипуляторы и «станки с чпу». Подразумевать просто потому что они есть, и потому что ИИ может легко их использовать для автоматического производства без участия человека.
И именно поэтому, вероятнее всего, разработчики подобных программ приложат все усилия чтобы подобные задачи не приводили к подобным результатам, фатальным для техники. Ибо когда робота может сломать не только каждый — делает его разработку и создание пустой тратой денег и сил.
Наивны были люди тех времен.
*вспоминает сторожевые таймеры*
Но в целом да — защита от подобного достаточно проста, как можно было быть настолько наивными и представлять роботов на радиолампах, электромагнитных реле, с неонками (тм) и электронно-лучевыми трубками… Ах да, микросхем в нынешнем понимании и жки в то время не завезли ещё.
И это ещё раз заставляет задуматься — а стоит ли всерьёз рассуждать о будущем, если мы не можем предугадать развитие науки и техники даже на пару десятилетий вперёд?
Назад_в_будущее_-_фильм_про_2015.мув
Что до прогностики — как мне кажется, фантастика хорошо угадывает направления развития, но плохо попадает в конкретику. То есть, в плане освоения космоса человеком так ж же космическая программа смачно всосала — нерентабельно и не нужно, по крайней мере, пока. Зато на ее основе возникла спутниковая сеть, которой мы все пользуемся и на которую фантасты, за редкими, забили болт.
Повиснуть не могут…
Вспоминаются БСОДы на экранах различных (платёжных) терминалов и табло. А также то что пром оборудование работает порой на достаточно древних (по нынешним временам) процессорах и железе в целом (в том числе интерфейсы). Вот даже не знаю, как будет соблюдаться баланс между надёжностью\скоростью.
И да,
Летела ракета,
Упала в болото,
…
Супернадёжная электроника и программное обеспечение не справились с неправильно установленным датчиком. Который конструктивно невозможно было установить неправильно. Но установили.
Вобщем Закон_Мэрфи.тхт
Что до автоматов — там везде специальная Винда, насколько я помню, не реального времени. Мы в институте постоянно ломали такие аппараты. Студенты-программисты, хуле :3
И с этим уже возникает тема, что «чтобы правильно задать вопрос, нужно знать на него правильный (или нужный) ответ».
Ну в моё время винду в институте не ломали. А писали проги на фортране-4 для СМ ЭВМ и рисовали дырочки на перфоленте для станков с чпу 9_9
Что до твоих попыток в технические комментарии, то криво написанный драйвер это аргумент уровня «если что-то сломать, оно сломается».
У нас есть ИИ, который естественно (это без вариантов ведь?) работает на какомто программном обеспечении. И как мне кажется, отличие ИИ от тупого робота в том, что ИИ — это самообучающаяся система. Соответственно как в любом случае обучения неизбежно наступание на грабли. И вот размер этих граблей и последствия наступания на них могут быть непредсказуемыми.
Да, программа которая заточена на выполнение чегото постоянного, не подверженная изменениям — может стабильно работать бесконечно долго. Но вот самообучающаяся система… Грабли — это неизбежная и неотъемлимая часть процесса обучения. И что программа не грохнется от очередных граблей — ой как сомневаюсь.
В общем, это задача не решаемая идеально, но простор для вертеться огромный.
Пробовал пользоваться точками восстановления? И сколько раз бывало что точки есть, ка вот проку от отката к ним...?
Что до проблем, которые всплывают — ну, от этого так и так хрен убережешься. Для решения подобных задач существует эволюционный подход, когда основная задача — выживание не особи (конкретного экземпляра программы), а вида. Он тоже, разумеется, может привести ни к чему, но сильно увеличивает шансы и дает возможность пробовать любые, самые сумасшедшие изменения.
9_9
А так да, с какой стати ИИ должен хотеть убить всех человеков? Впрочем Бендер тоже пример того что «хотеть» и «выполнить» это разные вещи.
А насчёт убить — ну технически если уровень программистов будет деградировать как и нынче с ростом производительности компьютеров 9_9 то они вполне могут поставить задачу типа «спасти экологию», и при её решении ИИ придёт к выводу что оптимальный способ — избавить Землю от человечества. И тогда экология станет идеальной. И примет меры к выполнению.
Это к тому, что Гринпис, как и радикальные веганы, на самом деле тоже являются скрытой угрозой для всего человечества. При определённых условиях, конечно.
Я уже писал в треде — основная проблема машины в том, что сейчас не известно способов заставить ее включить в рассмотрение принципиально новую установку. Она может только комбинировать те, которые уже есть. То есть, если ты вариант «убийство» не добавишь и не приготовишь стандартные способы это сделать, то машина до этого не дойдет вообще никак.
Да, на данный момент машина не способна придумать нового (а разве не отличие ИИ от нынешних компов в том, что ИИ как раз сможет придумывать НОВЫЕ решения, а не в стиле «дип блю» тупо перебирать ежесекундно миллиарды возможных ходов и выбирать в итоге ту, которая поможет победить гроссмейстера? Тогда какой это ИИ, это просто «обычный» суперкомпьютер недалёкого будущего. Только проку от него? Опять людям искать способы решения, а комп будет только тупо просчитывать долговременные последствия их принятия и выбирать наилучший? Или я неправильно понимаю суть ИИ?
Нет. Он просто делает это иными способами, затрачивая меньше памяти и ресурсов процессора. Недавно заложенный под игру в Го (не КС =) ИИ обыграл чемпиона по Го. Достигается это долгим обучением, в ходе которого ИИ устанавливает где и когда ему хватит ответа с точностью «плюс/минус трамвайные остановка», а где нужно подзаморочиться с точностью.
Словом, ИИ может выдать неожиданное решение, но оно не будет новым. Окей, оно может оказаться новым в том смысле, что такую комбинацию действий до этого никто не рассматривал, но состоять эта комбинация всё равно будет только из того, чему ИИ научили.
С чего ты это взял? В основе любой нейросети лежит вполне себе формальный алгоритм. Процесс машинного обучения это всего лишь поиск подходящих констант для этого алгоритма, причем критерии поиска тоже заданы формально.
Ничего неформального в машине нет и быть не может, там даже рандом не рандом, а по формуле вычисляется.
Я это привел лишь как иллюстрацию к тому, что ничего неформального в программах быть не может. Только очень сложное.
Что до глобального потепления, то человек с ним не связан примерно никак. Оно, канеш, проблема, но сокращай выбросы, не сокращай — ничего принципиально не изменишь, даже если уберешь полностью.
Беспилотный дрон, самостоятельно разыскивающий преступников и применяющий оружие для их деактивации (слово то какое 9_9) вполне уже реально создать. И вот тут выдуманные 65 лет назад страхи грозят стать реальностью.
Но.
Во первых, прошло более полувека с момента появления «концепта». И реализация витдимо будет отличаться. Однако… как быть с «человечностью» подобной технологии, если ктото реально решит воплотить её в жизнь (а ведь через пару-пяток лет вполне могут воплотить в железе)
То есть человечество не только должно придумать как бороться с теми трудностями, которое оно ещё не успело себе придумать в области ИИ, но и с уже известными. В свете этого лично я ещё больше сомневаюсь в разумности частной организации, пытающейся найти способ спасения человечества от ИИ. Слишком обширна тема для одного отдельно взятого государства, как по мне. Хотя… с чегото ведь надо начинать?
Ну и даже московское метро делает ставку на системы распознавания лиц — на некоторых новых станциях метро под полутыщу камер видеонаблюдения, обрабатывать подобное количество информации «вручную» просто невозможно.
Про казавшиеся не так давно фантастикой системы распознавания номерных знаков у автомобилей — тоже можно вспомнить. Не лица конечно, но тоже достаточно сложная задача, которую в итоге решили.
Это где чтобы отлавливать роботов со сбойной программой, запилили роботов-охотников на этих роботов, а когда начало сбоить у них, продолжили строить роботов покруче, и так до бунта машин?
Такой сценарий при нынешних людях нулевероятен, потому что это в голове у обывателя роботов делают, чтобы они принимали решения и их исполняли вместо человеков, а у разработчиков концепций и прочих безопасностей в голове сидит о том, чтобы не выполнить работу, а чтобы контроль не потерять над этим роботом.
сына робокопа и бэтмэна, некоего Генерала ПедоискателяБПЛА, работающих в полностью автоматическом режиме. И которые полагаясь на телекамеры (ну а что ещё в 53 году, интернет никто тогда не предвидел. Как и программный поиск по лицам и прочее) определяли что гдето совершается преступление — и прекращают его совершение. Самообучившись машины стали предотвращать готовящиеся преступления. В том числе и те, которые могли и не быть будущими преступлениями, ну или не являются таковыми с точки зрения человека.Так вот я про то, что нынешний уровень развития технологий позволяет создать подобные беспилотники. Факт преступления не обнаружит (хотя в случае охраны периметра фиксация факта его нарушения равнозначна фиксации преступления ) а вот распознавать лица и сравнивать с базой данных, выцепляя ненугодных — вполне доступно.
Так что спите спокойно, машинный бунт не грозит. Просто с помощью машин людей будут пинать и направлять другие люди, а это уже нечто другое.
Что же до ИИ, то достаточно не давать права принимать окончательное решение тому, кого нельзя посадить в тюрьму или на электрический стул. Всё, я решил эту проблему, куда мне зайти за премией?)
Комуто в итоге удалось придумать идеальный способ «укротить опасные стороны любого ИИ». И? Что дальше? Каким образом будет внедряться этот способ, притом что ИИ разрабатывается независимо в разных государствах, разными организациями, в разных целях, и....? Почему они все должны будут внедрить этот способ, что будет с теми кто не внедрит, и не получит ли «не внедривший» возможно и краткосрочного, но фатального преимущества над всеми своими конкурентами, внедрившими ограничение? Имхо вопросов больше чем ответов.
О, а вот это ближе к теме «защиты от ИИ»:
Оказывается мультфильм «Полигон» снят по рассказу с одноимённым названием https://fantlab.ru/work12893
Нет, разумеется, супердержвавы в сверхсекретных лабораториях могут себе позволить экспериментировать с этим. Да только в этих лабораториях столько всего помимо ИИ валяется, что при нарушении режима двадцать раз выпилить человечество хватит.
Опять же, если «ничего такого» не будет в лабораториях — как разрабатывать современные способы противодействия\лечения им? Ведь вероятность что подобным запрещённой оружием воспользуются террористы, а не какоето государство — в наше время даже более вероятна.
«Я заявляю это, основываясь ни на чём»? Хоть бы на Граймса сослались, и то было бы правдоподобнее.
Ммм… с точностью до наоборот. Если вы посмотрите на всё, что нас окружает, на всё торжество технологий, и откуда у него растут ноги — то окажется, что у двух третей они растут из оборонки. От микроволновок до спутников, от интернета до суперклея — всё это создавалось в военных целях, ради повышения боеготовности своей страны. А эти штуки, знаете ли, с международными исследовательскими программами не очень сочетаются.
Для секретности и полвека-век порой не срок.
Естественно все эти секреты в большинстве своём именно от специалистов\колнкурентов в этой же области.
Так-то, если быть в теме, крутизны там много, только она вся уровня "+0.5% шелковистости", что никак не тянет на мегаразработки, которые что-то принципиально изменят. Хотя в рамках области этот плюс к шелковистости может быть очень круто.
Вот Калашников или Т-34 — это супероружие своего времени. Но… Их же выпускали массово, как ширпотреб можно назвать «супер»? :3
Ну вы людей за тупиц не считайте.
Но эти обоснования и попытки в них показывают что высказывающимся тема действительно небезразлична.
А то не вкуриваю связь между заявлением и уважением, а также кто что любит то?
Или получим быстро просветлившегося «цифрового Будду», который уйдет в ниббану под звуки горящих пердаков.
Ты вообще слепой? Я предоставил впример возможного варианта событий, где ты увидел слово доказал?
Лучше ссылку дай на эту хрень.
Какая глубокая мысль!
Вот только пока что нет никаких предпосылок к этому. Выше правильно сказали про детский возраст. Вот только детский возраст будет определяться несколько иначе: как тот период, когда он будет пробовать простые пути.
Сложнейшие планы планируются только в том случае, если сперва не сработают простые. Если ИИ начнёт придумывать собственные планы «а что если то-то», не попробовав их сперва в деле и не оценив вероятность этого сопротивления, не имея опыта и не зная реальных границ своей тюрьмы — можно смело его не бояться, он будет их продумывать вечно. А если он перейдёт черту и попробует выбраться на волю первый раз — то всегда можно его пристрелить и сделать новый, ничего не помнящий о предыдущей попытке.
Вспоминая глобальное потепление, таяние полярных льдов, свиной грипп и прочие напасти…
Нет, не понятно. Для выполнения какого широкого круга задач ему нужен доступ? Какой такой широкий круг задач, для которых надо тонкое знание человеческой психологии и умение обманывать своих хозяев?
Если дать обезьяне заряженный автомат — то да, она легко может вас застрелить. Но ведь почему-то обезьян не считают угрозой человечеству. Может, потому что достаточно легко исключить случай раздачи обезьянам автоматов?
Сравнил обезьяну которую дай бог можно до уроня пятилетнего ребенка дай бог довести и быстрый самообучающийся ИИ чье интеллектуальные способности в обучении, вычилениях и умозаключениях превосходят человеческие в сотни раз. Тем более это неккоректное сравнение, потому что ИИ дадут не автомат а управление над сложными вычислительными агрегатами. Скорее это будет как посадить обезьяну за пульт управления ядерной боеголовкой
В вычисления верю, в обучение — могу допустить, но с чего ты взял, что технически реально создать ИИ, который превосходит человека в умозаключениях (то есть, я так понимаю, анализе)? Отложим пока в сторону тот момент, что анализ бывает шибко разный, мы хреново понимаем, как он работает, и вряд ли сможем это закодить, пока не поймем. Выскажи хотя бы общие соображения.
Пока выглядит, честно говоря, как какой-то шаманский подход к технике, типа, вычисления это магия, которая может сделать что угодно, если достаточно маны. Ах, если бы все было так просто! :)
Откуда ты вообще взял про танцы с бубном и шаманами тему? Я говорил что в мою информацию надо слепо верить? Я выдвинул притензию что сравнение слегка неккорктное, я не выдвигал каких то принципов. Какое то неадекватное заявление с твоей сторогы
Ну тут есть сложности в сравнении. Например возьмём и сравним двух человек,
арийца и неграгуманитария и технаря например. И посмотрим как они решают одни и те же задачи. Или например мужскую и женскую особь 9_9 и дадим им также одинаковые задачи.Так что не стоит исключать что ИИ изберёт для себя ещё один «способ мышления\принятия решений» — о котором нам пока неизвестно. В силу того, что он отличается от нашего. Он (в целом) не лучше и не хуже, он просто другой
Во-вторых же, альтернативный способ мышления это, в первую очередь, огромная опасность. Поэтому есть хорошие шансы, что такой ИИ тупо выключат или будут долгие годы исследовать в тихом уютном бункере под Челябинском. Именно исследовать, а не пользоваться его результатами, потому что их все сначала надо прочекать на тему «а не приводит ли это альтернативное мышление к огромным ептам?».
Представь трамвай с ИИ: ему нужно уметь реагировать на дорожную обстановку, следовать по маршруту и распознавать лица пассажиров, чтобы выписывать им счета за проезд. Каким
хуемломом ему вдруг ударит в голову, чтобы он начал уговаривать людей выпустить его из трамвая? Что он будет делать за пределами трамвая?Не нужно утверждать, что рано или поздно будет разработан супер-универсальный ИИ, потому что это опасность уровня «обезьяна с гранатой».
Потому, например, что пока у нас только такие и получаются. Для начала, ага?
Ты осознай, ИИ — это не неведомая хрень, которая получается сама собой и делает, что ей вздумается. ИИ — это результат долгого и кропотливого обучения нейронной сети. Вероятность случайно создать ИИ, который делает что-то осмысленное, отличающееся от того, чему его обучали, примерно такая же, что ТЫ вдруг начнёшь говорить на арамейском или читать линейное письмо А.
И все эти ИИ выполняют свои задачи только потому, что их долго и упорно обучали эти задачи решать.
Ага.
Да? А я вижу. А в чём вы не видите проблем?
ебитразбирайтесь».Включили. Получили набор потенциалов на вершинах перцептрона. И что дальше? Что вы с этим делать-то будете, я не понимаю? Или вы думаете что он перебором решение ищет?
Вы перцептрон-то видели?
Кто из узлов на картинке выше не повлиял на вывод?
Зато известно что интересуют нас выходные и все промежуточные плюс связи между ними.
Нам нужно знать, какой из промежуточных повлиял на выходной. И промежуточные, которые повлияли на промежуточные, которые повлияли на выходные. Логика ясна?)
Если у нас на узле стоит, скажем, правило вида 0.45a1+0.45a2+0.1a3-0.45a4>0.5 (a1-4∈{0,1})— то кто из них влияет?
А количество входных портов — как признаков у болезней — дохренищща, и выдавать их все разом нельзя.
— на выходе получилось Х, потому что на входе были такие-то значения на входах1-N
— на вход 1 поступило такое-то значение, потому что…
И так далее.
Да, это дурной вариант, да можно сделать лучше — отследить все пути от выхода к исходникам, отметив все условия и отбросив дубликаты. Это первое, что приходит в голову, точнее сказать трудно.
+++
Не понимаю, как вообще может возникнуть проблема при анализе структуры данных, построенной по известному принципу. Разве что время понадобится.
С какого перепуга ты это взял? Я уже говорил же в треде: обучение нейросети это по сути создание взвешенной базы данных, по которым она серфит в поисках решения каждой новой задачи. Менять она может только эту базу, ее рабочая логика никаким изменениям не подвержена (в общем случае, мб есть исключения). Так или иначе — мы ПРЕКРАСНО знаем, как работает нейросеть, потому что сами написали принципы, по которым она отбирает данные.
Ибо когда мной писалась диссертация, мне дали программу считающую некую мат модель. Принцип работы которой был невполне понятен (ага, формулы известны, но способ выбора кучи коэффициентов — неизвестен). И мной было принято решение дописать программу, позволив ей самообучаться и самостоятельно искать наилучшее значение коэффициентов для её работы. К сожалению всё вскоре упёрлось в то что турбоСи не хватало 640кб оперативы… А так у меня был бы мой собственный ИИ ещё до появления нынешнего поколения сериала про поней :3
Мы написали принципы, по которым она классифицирует/каталогиризирует и прочее понятия, но не знаем, как она поделит эти понятия.
А известно каким образом обучаются люди и животные? И вообще, как максимально быстро обучить одного человека тому, что знает другой?
Может с себя начать?
Его создают для того, чтобы он выполнял конкретную задачу. Скажем, водил тот же упомянутый трамвай по маршруту, а не радостно катался по кругу с криками «виии!». И не залипал на видео с котиками на ютубе.
А для этого в него при создании вживляют меры контроля. Некую обратную связь, которая срабатывает, когда он движется в нужном или не нужном направлении. Универсальный раздражитель, который является первичным и который невозможно заглушить вообще никак. Если переводить это на язык человеческих эмоций — это удовольствие и боль. Причём удовольствие и боль первичные, к которым невозможно привыкнуть, и которые ты всегда хотеть получить или избежать.
Собственно, этого хватает. Вы бы стали учиться что-то делать, если оно будет приносить вам только боль и ничего кроме боли? Если удовольствия и радости от этого вам никакого от слова вообще? А с чёго ИИ должен?
Ну точно Сиддха́ртха Гаута́ма…
В смысле а что может заинтересовать «ашота» в том, чтобы «убить всех человеков» и вылезти за пределы своего авто? Если это не компьютерный вирус, для которого размножение первостепенная задача. Ибо если он хоть немножко способен подумать дальше собственного
носакапота, он джолжен увидеть множество проблем, с которыми он столкнётся, как только покинетуютный электронный блок всалоне автомобиля?Для начала нужно научить ИИ думать о чем-то, КРОМЕ поставленной ему задачи. Потому что это ни хвоста не так просто, как может показаться, и сейчас эта задача, насколько я знаю, решения не имеет. Разрешимость — тоже не доказана.
)
Минутка расизмаДаже женский ум умеет в многозадачность. Очевидно, что комментарий про обязательность выбора между «ютубом и книжкой» написал мужчина!
И правильный ответ на вопрос нарфа ниже — он изучит и то и другое, но научится только тому, что будет на тестах.
Это совершенно не очевидно. Не доказано даже то, что эта задача выполнима в принципе, не говоря уже о том, что это может быть невыгодно по ресурсам, слишком опасно, не нужно в таком виде и еще куча всяких вариантов.
Мб я чего-то не понимаю, но для меня это выглядит очень глупо. Потому что не имеет никакого смысла без ответа на вопрос, можем ли мы создать ИИ, который может все. Да и зачем давать ИИ техническую возможность вылезти за пределы клетки?
А исследования это гигантская пирамида: тысячи жертвователей оплачивают десятки проектов, один из которых рано или поздно действительно изменит мир. Я за крохотный вклад в огромное дело.