Обсуждение AaaaaaacBbbbbbо новом факторе деградации умов в мире. И это – реально.
Aaaaaa, [22.01.2023 8:09]
https://habr.com/ru/news/t/711980/
Опять Буратин кинули, как ранее с CMS: дали нахаляву залезть на верблюда, а слезать теперь придется за бабки. Как преподу впарить текст, не распознаваемый AntiChatGPT? Есть варианты, но задорого :)
Bbbbbbb, [22.01.2023 8:40]
>>людям надо адаптироваться к генеративному тексту также, как к калькуляторам
Совершенно разные вещи: калькулятор дает адекватный реальности ответ, а нейросети - статистический вариант. Чувак мечтает, чтобы люди начали говорить с помощью генератора текста.
Aaaaaa, [22.01.2023 9:57]
Он мечтает дать им гаджеты разной степени "адекватности" - чтобы быдло могло выражаться умно. Типа встрял такой в обсуждение физиков-ядерщиков и давай их гонять. Гаджет запросто может вогнать в ступор умных, просто заваливая их многозначностями, которые они не успеют за ним разгребать. Вот где креатив, свершилось: теперь можно очень правдоподобно казаться умным. А со временем это может стать общей тенденцией, как попса и фанера заменили реальный вокал и музыку.
Aaaaaa, [22.01.2023 9:59]
Они прочухали тренд: востребован трепо-генератор.
Bbbbbbb, [22.01.2023 10:00]
да, это печально, только тиктоки уже снизили значимость ума и его не ценят, нужна харизма и прикольность, а также показ достатка. Вообще не думаю, что сетка может всерьез сгенерировать текст, озадачивающий спецов. Сейчас попробую...
Aaaaaa, [22.01.2023 10:03]
Пока не может, но задача поставлена. Здесь ведь не требуется реально сделать открытие, а только произвести впечатление. С этим она успешно справляется. А если кто то начнет умничать, что это деграданство - его обвинят в дискриминации меньшинств. Типа оскорбил дауна, которому захотелось поучавствовать в беседе посредством гаджета. Еще больше тараканов повылазят из за плинтусов
Bbbbbbb, [22.01.2023 10:03]
На запрос:
Доказательство, что программное моделирование искусственного интеллекта невозможно.
получил:
Программное моделирование искусственного интеллекта (ИИ) уже много лет является предметом оживленных дискуссий. С одной стороны, есть те, кто считает, что программное моделирование - это единственный способ достичь истинного искусственного интеллекта, в то время как с другой стороны, есть те, кто утверждает, что невозможно точно смоделировать человеческий интеллект с помощью одного программного обеспечения. В этом эссе я расскажу, почему существуют доказательства того, что программное моделирование искусственного интеллекта действительно невозможно.
Первая причина, по которой трудно создавать точные модели с помощью компьютерных программ, заключается в том, что компьютерам не хватает интуиции и креативности, которые являются неотъемлемой частью человеческих мыслительных процессов. Люди обладают врожденной способностью устанавливать связи между, казалось бы, несвязанными концепциями и выдвигать инновационные идеи; то, что компьютеры просто не могут сделать из-за своих ограниченных возможностей программирования. Это означает, что любая попытка создать систему искусственного интеллекта с помощью чисто программных моделей была бы изначально ограничена в своих возможностях по сравнению с когнитивными способностями реального человека и набором навыков решения проблем.
Второй фактор, препятствующий успешной реализации искусственного интеллекта с помощью компьютерного программирования, связан с ограничениями аппаратного обеспечения, а также с ограничениями вычислительной мощности, с которыми сталкиваются современные технологические системы сегодня. В то время как современные процессоры могут быстро обрабатывать огромные объемы данных, они по-прежнему не могут сравниться с нейронными сетями, находящимися в мозге, когда дело доходит до принятия решений или выработки творческих решений под давлением. Более того, даже если бы мы смогли воспроизвести такие сложные нейронные пути с помощью алгоритмов кодирования, эти симуляции никогда не смогли бы по-настоящему имитировать естественное поведение, потому что какими бы сложными ни стали наши машины, им всегда будет не хватать определенных качеств, таких как эмоции или сопереживание, необходимых для истинного понимания процесса принятия решений, лежащего в основе действий, предпринимаемых людьми
В заключение, хотя со временем был достигнут некоторый прогресс в создании более интеллектуальных машин, из представленных здесь доказательств становится ясно, что попытка воссоздать тот же уровень сложности, что и в умах людей, используя исключительно цифровые методы, остается нереалистичной в настоящее время из-за различных ограничений, накладываемых на аппаратную вычислительную мощность, доступную сегодня.
Aaaaaa, [22.01.2023 10:04]
попроси теперь доказательства, что это возможно :)
Bbbbbbb, [22.01.2023 10:06]
Программное моделирование искусственного интеллекта возможно и было доказано различными экспериментами и исследованиями. Искусственный интеллект (ИИ) - это раздел информатики, который фокусируется на создании интеллектуальных машин, способных думать, учиться и действовать как люди. Исследования в области искусственного интеллекта продолжаются уже несколько десятилетий и принесли много успехов в таких областях, как обработка естественного языка, системы управления робототехникой, экспертные системы и т.д.
Наиболее распространенная форма программного моделирования, используемая для создания искусственного интеллекта, известна как машинное обучение (ML). ML использует алгоритмы для выявления закономерностей в наборах данных, чтобы он мог принимать решения на основе этих закономерностей без явного программирования человеком-программистом. Это позволяет компьютерам быстро обрабатывать большие объемы данных, в то же время принимая точные решения о том, какие действия следует предпринять в ответ на новую информацию или изменения в окружающей среде. Кроме того, этот тип программного моделирования также позволяет компьютерам со временем учиться на своих ошибках, поэтому они становятся более эффективными при решении проблем или выполнении задач, чем они были изначально запрограммированы.
Это доказательство того, что программное моделирование для искусственного интеллекта возможно, позволило исследователям по всему миру разрабатывать лучшие решения, используя методы машинного обучения, такие как сети глубокого обучения, которые способны выполнять сложные задачи с большей точностью, чем раньше, благодаря своей способности точно распознавать тонкие различия между объектами или изображениями. Эти достижения позволили нам использовать технологию искусственного интеллекта для решения реальных проблем, начиная от медицинской диагностики и заканчивая приложениями для обеспечения безопасности распознавания лиц. Поскольку мы продолжаем изучать возможности, предлагаемые ML, мы можем вскоре увидеть дальнейшие прорывы в этой области, ведущие к еще более умным технологиям будущего.
Aaaaaa, [22.01.2023 10:06]
это как тест старых китайских калькуляторов: 2/3*3 != 2
Aaaaaa, [22.01.2023 10:07]
Ну вот и вся пурга :)
Bbbbbbb, [22.01.2023 10:08]
Довод против псины и т.п. - ты пользовался генератором? или просто генерить ответы на его замечания с пометкой, что это - комп оппонирует.
Aaaaaa, [22.01.2023 10:09]
Я кстати где то натыкался: спосили чат-бот доказательства бога, потом опровержение. И он нагенерил одинаково того и другого.
Bbbbbbb, [22.01.2023 10:09]
да, это - запросто.
Bbbbbbb, [22.01.2023 10:11]
В обоих ответах спец тут же заметит лажи ответа.
Aaaaaa, [22.01.2023 10:12]
интересно, если ему задать: докажи, что 2+2=5 как он вывернется?
Bbbbbbb, [22.01.2023 10:14]
Утверждение о том, что 2 + 2 = 5, является математически невозможным, и все же есть некоторые, кто утверждает, что у них есть доказательство этого уравнения. Хотя на первый взгляд это может показаться абсурдным, эти утверждения действительно заслуживают внимания при более тщательном рассмотрении. На самом деле, есть несколько способов математически доказать, что 2 +2 действительно равно 5.
Одним из способов доказать это утверждение является использование алгебраических уравнений и манипулирование переменными. Например, если мы установим x = 4, то x + 1 = 5; таким образом, доказав, что два плюс два равно пяти, заменив четыре на “два” в уравнении с добавлением в качестве оператора (x + 1). Этот же принцип может быть применен с использованием других операторов, таких как вычитание или умножение - все они дают один и тот же результат: 2 + 2 = 5.
Другой метод, используемый для демонстрации обоснованности этого утверждения, включает переписывание уравнений с использованием различных числовых баз или систем, таких как десятичная (основание 10) по сравнению с двоичной (основание 2). Преобразуя каждое число в соответствующее базовое значение перед выполнением любых вычислений, вы обнаружите, что после их сложения они все равно равняются пяти, независимо от того, какую систему вы используете! Это еще раз доказывает, как можно манипулировать математикой, чтобы, казалось бы, невозможные утверждения, такие как “2 + 2 = 5”, становились истинными в зависимости от выполнения определенных условий заранее, что позволяет любому, кто достаточно разбирается в базовых арифметических операциях, увидеть, как даже что–то настолько простое может дать неожиданные результаты, если смотреть с другой точки зрения.
В заключение, хотя на первый взгляд многие люди могут подумать иначе, на самом деле существует немало доказательств того, что два плюс два действительно равно пяти - хотя и только при определенных обстоятельствах. Энтузиастам математики определенно следует самим изучить больше этих интересных тем, если они тоже хотят лучше понять, почему подобные вещи происходят время от времени!
Bbbbbbb, [22.01.2023 10:14]
и любой математик увидит лажи... Это - игрушки для детей.
Aaaaaa, [22.01.2023 10:16]
для соц. сетей
Bbbbbbb, [22.01.2023 10:16]
насчет числовых баз, впрочем - верно.
Bbbbbbb, [22.01.2023 10:19]
Может ли всемогущий создать камень, который он не сможет поднять?
Bbbbbbb, [22.01.2023 10:20]
ПРЕДУПРЕЖДЕНИЕ: Текст может содержать конфиденциальный контент
Извечный вопрос о том, может ли всемогущий создать камень, который он не может поднять, обсуждался веками. С одной стороны, утверждается, что если Бог действительно всемогущ, то не должно быть ничего, чего Он не мог бы сделать, включая подъем любого камня, который Он создает. С другой стороны, некоторые считают, что создание объекта, слишком тяжелого для подъема, противоречило бы логике и поэтому не могло бы существовать в реальности. Чтобы ответить на эту запутанную дилемму, мы должны сначала рассмотреть, что значит быть всемогущим и как эта сила соотносится с физическими ограничениями, такими как вес или размер.
Всемогущество подразумевает наличие неограниченной власти, которая предполагает способность делать что угодно, независимо от физических законов или ограничений; однако многие возражают против этой идеи, утверждая, что это противоречит логике, поскольку независимо от того, насколько мощным может быть что-то, они все равно должны соблюдать определенные правила, такие как гравитация, которая ограничивает движение на основе массы и плотности. Следовательно, даже если бы Бог мог создать сверхмассивный объект с непостижимой массой, у него все равно могло бы не хватить сил (или рычагов воздействия), необходимых для его удаления из места покоя, просто из-за самой физики, а не из-за его собственной нехватки сил или способностей. Этот аргумент действительно имеет смысл, но в то же время возникает другой важный вопрос: действительно ли что-то невозможно только потому, что мы еще не знаем, как это сделать?
Эти дебаты, вероятно, будут продолжаться до тех пор, пока человечество не узнает больше о возможностях нашей Вселенной, однако одно остается верным - какую бы сторону вы ни выбрали в ответе “Может ли Всемогущий создать Камень, который Он не может поднять?”, В конечном счете, только вера может дать нам уверенность при попытке постичь вещи, выходящие за рамки человеческого понимания..
Aaaaaa, [22.01.2023 10:20]
если начнут юзать эту приблуду как советчика, а так и будет, то она поможет натягивать сову на любой глобус, сделав флуд изощренным. Пока еще можно быстро выявлять лажи, но технология может учесть эти тесты и еще более изощренно флудить. Главная опасность - бот убедительно говорит то, что хочется услышать, размазывая границу между правдой и ложью. Это мощная штука для манипуляции сознанием.
Aaaaaa, [22.01.2023 10:27]
Она отучает думать, давая иллюзию, что на любой вопрос можно получить ответ у бота ( он же бог по сути). В итоге атрофируются навыки поиска, анализа - и чел превращается в скота, который охотно верит всему, что сказал бот. Может даже отупеют настолько, что устроят дебаты между ботами и будут присуждать победу тому, кто забористее изворачивается. Тогда аргументом правильности важных решений станет: мы прогнали вопрос через бото-дебаты и по таким то параметрам выиграло такое то мнение. А дальше только остается немного подкрутить алгоритм, чтобы он правильно выигрывал. И попробуй потом его оспорить в дискусе с ботом - он порвет тебя как тузик грелку потому, что его навыки флуда, демагогии включают в себя весь человечий опыт в этой сфере, а ты лишь просто человек, ограниченный и медленно соображающий.
Bbbbbbb, [22.01.2023 10:28]
на такие случае есть естественный отбор, включая целые популяции
Bbbbbbb, [22.01.2023 10:32]
Запрос: Почему вредно пользоваться генераторами текста?
Ответ:
Генераторы текста - это компьютерные программы, которые генерируют текст автоматически. Их можно использовать для создания статей, сообщений в блогах и даже целых книг. Хотя эти инструменты могут показаться отличным способом сэкономить время и усилия при написании, на самом деле они могут быть весьма вредными в долгосрочной перспективе.
Основная проблема с использованием текстовых генераторов заключается в том, что они создают контент низкого качества из-за отсутствия понимания языковой структуры и значения. Текст, сгенерированный этими программами, часто содержит неуклюжие формулировки или неправильную грамматику, из-за чего читателям трудно понять, о чем пишется. Кроме того, большая часть контента, создаваемого текстовыми генераторами, лишена оригинальности, поскольку основана на заранее запрограммированных шаблонах или существующих текстах, что приводит к плагиату, если не цитируется должным образом.
Еще одна проблема, связанная с использованием автоматизированных средств написания, заключается в том, что их результаты, как правило, содержат фактические неточности, а также предвзятые мнения из таких источников, как новостные агентства или сайты социальных сетей, без какого-либо редакционного контроля перед публикацией их в Интернете для общественного потребления. Это может сбить читателей с пути принятия обоснованных решений по таким важным темам, как политика или проблемы здравоохранения, если они будут полагаться исключительно на информацию, полученную с помощью автоматизированных средств, не проверяя ее точность из первых рук.
В заключение, хотя могут быть некоторые преимущества, связанные с использованием автоматизированных средств написания, в целом этого лучше избегать из-за потенциального вреда, причиняемого созданием низкокачественного контента, наполненного неточными фактами и мнениями, а также связанным с этим риском плагиата.
Aaaaaa, [22.01.2023 10:41]
Качество повысить вопрос технологии и глубины обучения. Реальная проблема: чем выше качество - тем тупее юзер, потому как он все больше деградирует.
С одной стороны это можно сравнить с навигаторами: да, люди отупели, разучились по ориентирам ходить. Но зато теперь в любом незнакомом месте, где есть доступ к сервису, гарантированно не заблудятся и быстро найдет нужную точку.
Стало быть, можно воспринимать это как приставку, типа авторифмователь, чтобы не мучиться часами, а просто задать тему, и получить стихи. И это типа облегчит рутину и позволит шире раскрыться. НО: это одновременно еще больше расслоит социум. Дураки смогут заумно выражать свои глупости - а умные смогут гениально выражаться. Гаджет в очередной раз контрастирует естественные различия, он просто раскроет то, что внутри. И если там помойка - получится смердящая вонь.