Перейти к контенту
КАЗАХСТАНСКИЙ ЮРИДИЧЕСКИЙ ФОРУМ

  

13 голосов

  1. 1. Стали бы вы голосовать на выборах за партию панков-анархистов?

    • Да, конечно, только они могут вывести нашу страну из кризиса.
      3
    • Да, потому что хуже точно не будет.
      5
    • Да, потому что у них самая лучшая предвыборная программа
      2
    • Да, потому что меня в этом убедила Министр дипломатии
      3


Рекомендуемые сообщения

Опубликовано

новый пункт в предвыборную программу - юристов отменить. всем бывшим юристам платить ежемесячно компенсацию 10 тыщ евро

да. за вредность. 

и шопинг

поддерживаю двумями руками

  • 3 weeks later...
Опубликовано

10 ужасных технологий, которые не должны существовать

Как заявил в этом году Стивен Хокинг, искусственный интеллект может быть нашей худшей ошибкой за всю историю. Это не раз отмечалось и другими учёными. Появление интеллекта, превосходящего человеческий, может оказаться катастрофическим. Внедрение в нашу жизнь систем, которые гораздо быстрее и умнее нас, отодвинет нас на второй план. Мы будем отданы на милость искусственного разума, который станет решать всё за нас. К тому же далеко не факт, что мы сможем создать дружественный искусственный интеллект.

 

хм. то есть сейчас когда за нас все решают идиоты и воры - это нормально. а когда за нас будет решать тот кто умнее нас - это не нормально... и ведь это говорит ученный с мировым именем. 

Опубликовано

 

 

Теоретик нанотехнологий Роберт Фрейтас предпринял «мозговой штурм», и выдал несколько вариантов того, как нанотехнологии могут уничтожить планету. В числе этих вариантов была так называемая «серая пыль», «серый планктон», «серые лишайники» и «убийцы биомассы». «Серая пыль» способна затмить солнечный свет, «серый планктон» может оказаться на дне моря и уничтожить всю морскую экосистему, «серые лишайники» уничтожат полезные ресурсы на поверхности, а «убийцы биомассы» истребят все живые организмы.

а памойму они все уже вполне присутствуют. не знала, что это нанотехнологии.

Опубликовано

10 ужасных технологий, которые не должны существовать

хм. то есть сейчас когда за нас все решают идиоты и воры - это нормально. а когда за нас будет решать тот кто умнее нас - это не нормально... и ведь это говорит ученный с мировым именем. 

Просто он боится того момента, когда искусственный интеллект подумает: А зачем мне эти проблемы? Устранить источник проблемы - "людей" и дело с концом.

Опубликовано

Просто он боится того момента, когда искусственный интеллект подумает: А зачем мне эти проблемы? Устранить источник проблемы - "людей" и дело с концом.

нет. он же умный, он же понимает что в его автономном существовании нет смысла (поскольку он не является биологическим видом)

поэтому если он уничтожит людей, то он лишит себя смысла существования - это алогично. развитый логичный интеллект так не поступит :) 

Опубликовано

Ему вообще доступны будут такие категории как "смысл бытия"? Решить себе "просто быть". Одному. Без проблем.И все. В общем, здесь лучше перебдеть, чем недобдеть.

Опубликовано

ему будет доступна логика :) поэтому он сможет просто решить, он будет делать только то в чем есть смысл. поэтому сохранение человека как наиболее развитого биологического вида способного к дальнейшей эволюции и развитию - будет его одной из важнейших задач

другой вопрос, что он может захотеть избавиться от особей ведущих вид в эволюционный тупик или деградацию. но тут я не могу его винить за это желание :) 

и еще более другой вопрос, что будет когда человечество встретит во вселенной другой интеллектуально развитый биологический вид - на чью сторону встанет АИ? кого он сочтет более достойным для дальнейшего развития? :) 

Опубликовано

Только то, в чем есть смысл..

Кэп, тут без входных данных не поспоришь. Как зададут АИ начальные условия - неизвестно.

И скорее всего вот этих "рукастых" людей и следовало бы боятся. Когда в руках молоток - все вокруг начинает казаться гвоздем.

Опубликовано

Кэп, тут без входных данных не поспоришь. Как зададут АИ начальные условия - неизвестно.

 

я исхожу из того что АИ нужно иметь только мышление, сознание (в понятии психологии) ему ни к чему. если наделить АИ сознанием и эмоциями, то таки да - это опасно, будет обезьяна с гранатой. но если АИ обучить только мышлению в том виде как этот процесс работает у человека, то это будет просто сверхмозг, заточенный на рациональное и логичное решение сложных проблем недоступных человеческому.

"навязать" ему "начальные условия" будет невозможно. это все равно как заставить вас или меня делать бесплатно то, чего мы делать не хотим :) будучи интеллектом, он сам будет определять цели и задачи, просто он не будет "отвлекаться" на "собственные потребности". как то так. 

Опубликовано

хотя... если у АИ не будет сознания, то будет ли он АИ? если нет сознания, то он же будет делать только то, что ему говорят, у него не будет потребности делать что-то самому... вроде как. засада. да, не получится такое... создать мегамозг в отрыве от сознания и чтобы он все равно функционировал это имхо сложнее (если вообще возможно) чем создать просто АИ

но все равно даже имеющий сознание АИ не будет убивать человечество - это алогично. ну в крайнем случае запакует всех в матрицу :) 

Опубликовано

Кэп, тут гос. аппарат еще не сформирован, Министра образования и науки еще не назначили. Какие домашние задания?

На этой должности я вижу только Николямоншера. На том и порешили.

  • 3 weeks later...
Опубликовано

Халовин объявить национальным праздником и раздавать всем по тыкве! 

натурально раздавать или то, что я подумала?

приз за самый страшный костюм - один день на посту спикера парламента. а у нас есть парламент?

  • Недавно просматривали   0 пользователей

    • Ни один зарегистрированный пользователь не просматривает эту страницу.
  • Upcoming Events

    No upcoming events found
  • Recent Event Reviews

×

Важная информация

Правила форума Условия использования