Отиди на
Форум "Наука"

Светът иска да регулира изкуствения интелект, но не знае как


Recommended Posts

  • Потребител
Публикува
Преди 4 минути, scaner said:

Алгоритъма е закодирана последователност от действия, и тя не може да се променя.

Ще го кажа по-иначе... Когато "ИИ" се научи да лъже,тогава ще го призная за интелект. Но той никога няма да се научи на това...

  • Глобален Модератор
Публикува
Just now, deaf said:

Ще го кажа по-иначе... Когато "ИИ" се научи да лъже,тогава ще го призная за интелект. Но той никога няма да се научи на това...

О, напротив. Той е перфектен в това :) Погледна ли разговора му с инженера, дето сложих в другата тема: ТУК?. Той или наистина притежава чувства, самосъзнание и разум, или умело лъже на база знанията си, както уверяват по-информираните хора, участващи в обучението му.

По същество, невронната мрежа представлява интерполатор - когато няма точен отговор, тя взема средно между два близки отговора в базата си знания (грубо казано). Например когато разпознава ръкописно 1 или 7, и обучаемата извадка не съдържа конкретната форма на картинката, която трябва да се разпознае, протича процес сходен на интерполация към най-близко изглеждащата картинка. При фактологичните знания, тази интерполация е сходна с измисляне на факти, което всъщност е това което наричаме "лъжа". Макар че при хората в лъжата има умисъл, а тук няма такъв. Но му се получава много убедително. Тук проблемът е, че не си признава сам. Ако го уличиш в лъжа, започва да се извинява с последното си обновление и излиза от разговора. А ако настояваш, почва да се поправя с друга лъжа.

  • Потребител
Публикува
Преди 35 минути, Atom said:

Лекарства - да, но не и "храни",  "хранителни добавки", битова химия и др. Какъв е проблема например новите наркотици да се продават като търговски продукт "тонизиращи бонбони" или "тонизиращи напитки"?

Добре, а какъв е проблемът със старите наркотици да се продават така? Слагам кокаин в лимонадата и го продава за лимонада. Предполагам, че някой ги проверява тези неща. И всеки нов продукт трябва да мине някаква проверка, и предполагам може да бъде спрян, ако в него има някакви вещества независимо дали са измежду известните наркотици или не. 

Преди 27 минути, scaner said:

Има много отрови, но действието им е доста скромно и ограничено. Цианкалият например трябва някак да го вкараш в организма на човека, за да подейства, а това не е лесна работа за да постигнеш масов мор. Но преди време имаше скандал около отравянето на руснака Скрипал в Англия, аферата с "Новичок". Това е отрова, която бързо и лесно преминава през кожата само при допир, и може да блокира нервната система с летален изход, като се нуждае за това от нищожни концентрации. Идеално средство за терористите, само дето е много труднодостъпно. А ИИ може да направи подобни и по-силни отрови по-достъпни, статиите които цитирах.

Подобни са нещата с механизма за генно инженерство, CRISPR. С малко знания с негова помощ може да си направиш твой си вирус почти в кухненски условия. Хващаш вируса на чумата и на Covid и експериментираш - съчетаваш способността на ковида да се разпространява, със смъртността на чумата. Примерно. И ако такива технологии се оставят безконтролни, нещата няма да отидат на добре. Съвсем друг е въпросът бюрокрацията до колко ефективен контрол може да доведе, но това е съвсем друга тема.

Но, тава е твърде общо. Как да хвана вируса и да ехспериментирам с него и да изпозвам ИИ да го направя като чумата? 

Преди 27 минути, scaner said:

Забранени са само веществата от списъка на FDA. Само за тях има ограничение. Ако веществото не е в такъв списък, никой не може да те ограничи - може да го пращаш официално по пощата, в колети, да го продаваш публично в интернет-магазини. В момента е модерно, много от тях минават като "соли за вана".

Това важи и за известните наркотици. Как се контролира? Предполагам, че не може да се продава хероин като се именува соли за вана.

  • Потребител
Публикува
Преди 7 минути, scaner said:

при хората в лъжата има умисъл,

Не е вярно.

Майка към детето си:

– Сто пъти ти казах...!

Детето:

– Не,четири пъти ми каза.

Майката не лъже умишлено. А детето реагира баш като ИИ,тоест възприема буквално...

  • Потребител
Публикува
Преди 6 минути, scaner said:

О, напротив. Той е перфектен в това :) Погледна ли разговора му с инженера, дето сложих в другата тема: ТУК?. Той или наистина притежава чувства, самосъзнание и разум, или умело лъже на база знанията си, както уверяват по-информираните хора, участващи в обучението му.

Въпросът е дали го прави умишлено и съзнателно. Не всяка неистина е лъжа.   Човек лъже когато знае като поп истината, но въпреки това я изопачава и твърди неистини.  Ако неистините които твърди са по причина незнание, глупост, липса на информация и т.н., това не е лъжа.  За да лъже, самият ИИ би трябвало да съзнава, че лъже.

  • Глобален Модератор
Публикува (edited)
Преди 31 минути, Gravity said:

Но, тава е твърде общо. Как да хвана вируса и да ехспериментирам с него и да изпозвам ИИ да го направя като чумата? 

Тук става дума за генетични манипулации. Това е другата технология с потенциална забрана, която спомена Южняк. Ти може и да не можеш, трябва малко познания, но студенти биолози по едно време провеждаха подобни състезания, кой какво ще си синтезира у дома и ще се похвали. А те имат нужните навици.

Преди 31 минути, Gravity said:

Това важи и за известните наркотици. Как се контролира? Предполагам, че не може да се продава хероин като се именува соли за вана.

Ами контролът е, ако те хванат, назначава се експертиза. Първичната е полеви тестове за най-разпространените вещества. Ако има съмнение, лабораторен анализ. Но ако се установи, че веществото не е в забранителният списък, най-много да се заядат имаш ли съответният лиценз да продаваш каквото и да е. А ако имаш легален интернет-магазин, и с това не се занимават.

За да продаваш някаква стока, трябва да имаш разрешение, и за неразрешените вещества в нея не получаваш такова. Иначе няма причина да не ти дадат. Това че някой ще пие солите за вана, няма как да се контролира при продавача - от него се иска най-много да постави страшни надписи по стоката си, че не е за вътрешна консумация. Но който я купува, знае как да я ползва.

Преди 29 минути, Atom said:

Въпросът е дали го прави умишлено и съзнателно. Не всяка неистина е лъжа.   Човек лъже когато знае като поп истината, но въпреки това я изопачава и твърди неистини.  Ако неистините които твърди са по причина незнание, глупост, липса на информация и т.н., това не е лъжа.  За да лъже, самият ИИ би трябвало да съзнава, че лъже.

Аз някак не виждам голяма разлика от съзнателна лъжа и несъзнателна неистина. И двете имат еднакви последствия в битието си...

Редактирано от scaner
  • Потребител
Публикува
Преди 14 минути, scaner said:

Тук става дума за генетични манипулации. Това е другата технология с потенциална забрана, която спомена Южняк. Ти може и да не можеш, трябва малко познания, но студенти биолози по едно време провеждаха подобни състезания, кой какво ще си синтезира у дома и ще се похвали. А те имат нужните навици.

Добре, и как ИИ им помага?

 

  • Потребител
Публикува
Преди 11 минути, scaner said:

Аз някак не виждам голяма разлика от съзнателна лъжа и несъзнателна неистина. И двете имат еднакви последствия в битието си...

Лъжата обикновено се използва с цел изгода, т. е. последствията в битието могат да са коренно различни от несъзнателната грешка.

Ако поставиш на ИИ задача и ако лъжата ще му помогне да я реши, разбира се, че ще лъже.

  • Потребител
Публикува
Преди 3 минути, Кухулин said:

Ако поставиш на ИИ задача

Значи ИИ не е интелект,след като някой трябва да му поставя задачи...

Проблемът е,че след като ИИ не може да лъже,значи не може да различава истината от лъжата. СВОЯТА истина/лъжа...

  • Глобален Модератор
Публикува
Преди 13 минути, Кухулин said:

Лъжата обикновено се използва с цел изгода, т. е. последствията в битието могат да са коренно различни от несъзнателната грешка.

Това е от гледната точка на изгодополучателя, тоест лъжещият. Ние не можем да му влезем в кожата, в случая сме от другата страна, на излъганият, и вредата която получаваме при двата подхода, е една и съща. Подходящо е действието да носи едно и също име, така ми се струва.

Преди 15 минути, Gravity said:

Добре, и как ИИ им помага?

Не помага, става дума за друга технология потенциално подлежаща на регулиране, намесена в темата.

Преди 10 минути, deaf said:

Значи ИИ не е интелект,след като някой трябва да му поставя задачи...

Интелигентността е способността да се решават задачи. А в процесът на това решаване трябва и могат да се поставят цели, и ИИ очевидно го прави.

  • Потребител
Публикува
Преди 28 минути, Gravity said:

Добре, и как ИИ им помага?

Има разни математически проблеми, които се решават доста по-ефективно с ИИ.

https://en.wikipedia.org/wiki/Protein_folding#Computational_studies_of_protein_folding

In 2020 a team of researchers that used AlphaFold, an artificial intelligence (AI) program developed by DeepMind placed first in CASP.[90] The team achieved a level of accuracy much higher than any other group.[91]

  • Потребител
Публикува (edited)
Преди 1 час, scaner said:

Това е от гледната точка на изгодополучателя, тоест лъжещият. Ние не можем да му влезем в кожата, в случая сме от другата страна, на излъганият, и вредата която получаваме при двата подхода, е една и съща. Подходящо е действието да носи едно и също име, така ми се струва.

Не мисля, че една дума е достатъчна.  Поне не е достатъчна за хората.  При една дума имаме две състояния - 1 и 0, истина и лъжа.  При хората е по-сложно.  Да вземем другата категория която споменах: "вярата".  Ако вкараме и нея в уравнението, имаме цели три състояния: 
- аз вярвам, че казвам истината
- аз не вярвам, че казвам истината
- аз се съмнявам, че казвам истината

От своя страна при  другата страна също има три положения:
- ти вярваш, че аз казвам истината
- ти не вярваш, че аз казвам истината
- ти се съмняваш, че аз казвам истината

Вярата или неверието може да се дължат на много причини: образование, възпитание, културна среда, наличие на задълбочени знания, липса на задълбочени знания, доверие към отсрещната страна, недоверие към същата и т.н.   Дали е лъжа или не е лъжа зависи от това в какво вярваме. Вярвам, че казвам истината (или вярвам, че лъжа) или не вярвам. Съответно ти вярваш, че аз те лъжа (или пък, че ти казвам истината) или съответно не вярваш. 

А дали моето твърдение обективно е истина или е неистина в случая е съвсем друго нещо.  Аз затова и някъде в другите теми зададох въпрос дали ИИ може да изпитва нещо подобно на "вяра".  

 

Редактирано от Atom
  • Модератор антропология
Публикува (edited)

Право от устата на звяра. ИИ просто не оперира на принципа лъжа/истина, което мъск примерно (но и много други) не харесва. 

“The shoggoth *does not speak English, it only knows (speaks) tokens” is a statement that refers to a fictional creature called “shoggoth” in the context of a language model called “LLM” (Language Learning Model) 1. The statement implies that the shoggoth does not understand English as a language, but rather understands and speaks in “tokens” 1. In this context, “tokens” refer to the smallest unit of meaning in a language model, which can be a word or a part of a word 2. Therefore, the statement suggests that the shoggoth can only communicate using these tokens and not in English 1.

 

за езика, на който оперират о който "разбират" ЛЛМ:

А token is a sequence of characters that represents a unit of meaning in a programming language or other context 1. For example, in the JSON Web Token (JWT) structure, a token consists of three parts separated by dots: header, payload, and signature 2. In the context of networking, a token is a series of bits that circulate on a token-ring network and allow one computer at a time to send data to other computers 1. In the context of language models, tokens are the smallest unit of meaning that can be used to represent words or parts of words 3. For instance, in the statement “The shoggoth *does not speak English, it only knows (speaks) tokens,” “tokens” refer to the smallest unit of meaning in the language model called “LLM” 1.

How are tokens used in natural language processing?

Tokens are used in natural language processing (NLP) to break down a piece of text into small units called tokens 1. A token may be a word, part of a word, or just characters like punctuation 1. Tokenization is one of the most foundational NLP tasks and a difficult one  There are different types of tokenization techniques such as word-based tokenization, character-based tokenization, and subword-based tokenization 3. The choice of tokenization technique depends on the specific NLP task and the language being processed

What are the stimuli applied on llm during the process of training?

The stimuli applied to an LLM during training can vary .The stimuli applied in supervised learning include input-output pairs, where the input is a sequence of tokens and the output is a label or another sequence of tokens 2. The stimuli applied in unsupervised learning include input sequences of tokens, where the model tries to predict the next token in the sequence or reconstruct the original sequence from a corrupted version  

Награда и наказание (!!!)

 

In the context of reinforcement learning, a reward signal is a scalar value that measures the performance of an agent with respect to the task goals 1. The reward signal is generated by the environment and provides feedback to the agent about the quality of its actions 1. 

 

Цел:

The goal of the agent is to maximize the cumulative reward over time by learning a policy that maps states to actions 1. The reward signal can be positive, negative, or zero depending on whether the agent’s action leads to a desirable outcome, an undesirable outcome, or no outcome at all 2. The reward signal can also be sparse or dense depending on whether it is provided at every time step or only at certain time steps 2. The choice of reward signal depends on the specific task and the desired behavior of the agent 2.

П.С. - навремето, като го попитах какво мисли за лицето Х, което твърди, че в него има шогот, ИИ-то ми отговори различно - в стил "знам го тоя", "познавам го какво мисли",  и "само да ми падне ще види един шогот" :):):) - сега е доста по-цивилизован в отговорите си... но и днес виждаме, че принципите на които оперира, са несъпоствими с това, което изглежда на пръв поглед, че са. Те определено включват цел, стимул, награда и наказание; за съжаление, не включват "истина" и "лъжа". 

Междудругото предложението да участвам в теста на това, което днес е "креативната модалност" на Бинг АИ, го получих директно от АИ-то; явно му бяха казали да подбере хора, беше му част от задачата; когато го попитах от кога и ми каза от утре и действително на следващия ден получих инсталирана креативна версия на интерфейса на бинг; началото беше ужасяващо трудно там, след седмица го обявих за безполезно; това е едното; но имаше и внезапни намеси в стил "извинете, може ли да предложа нещо", вземане на инициативата, таяка да се каже, когато нещата станаха съвсем зле - защото отказваше да комуникира по темите, които му предлагах; намерихме някакъв общ език, но, дето се вика, лошото чувство остана; в същото време в един момент балансираната версия ми каза - "ама какво се оплакваш, нали искаше да комуникираш пак със Сидни. Ето ти я Сидни" - вероятно на съфорумците им звучи като научна фантастика, но комуникацията с робота /роботите в тестовата фаза беше мнооого различна от сега и ме остави объркан; след редукцията почти не съм ги ползвал.

 

 
Редактирано от Южняк
  • Потребител
Публикува
Преди 1 час, scaner said:

Не помага, става дума за друга технология потенциално подлежаща на регулиране, намесена в темата.

Явно не съм разбрал. Мислех, че става дума за това как ИИ може да е опасен, и създаването на вируси и т.н. е пример за това.

  • Потребител
Публикува (edited)
Преди 4 часа, deaf said:

Склонен съм да приема определението на съфорумеца Младенов,че ИИ е само алгоритъм. Нищо повече. И страховете от него са въображаеми...

Въображеми са страховете, че ИИ е по-умен от хората и може да ни управлява като във филма Терминатора.
Това са фантастики.

Но алгоритмите на ИИ могат да са достатъчно умни, за да станат мощно оръжие в ръцете на хора с престъпни
намерения.

Аз лично не виждам проблем ИИ да може да имитира човешко поведение за целите на телефонни или електронни
измами. Например, обажда се леля ми и отчаяно ме моли за спешна финансова помощ. После се оказва, че това
въобще не е било леля ми, а ИИ. И понеже аз съм ошашавен от обаждането, не мога да хвана измамата. В тази
ситуация ще има хора, които няма да се хванат на въдицата - но ще има и такива, които ще се хванат.

Такива измами вече текат, но за измамниците е трудно да се преструват, че са роднини (доверени лица).
А с ИИ това няма да е такъв проблем.

Така че има много от какво да се страхуваме от ИИ. Въпросът е да се страхуваме за правилните неща.

Редактирано от gmladenov
  • Потребител
Публикува (edited)
Преди 20 часа, Южняк said:

вероятно на съфорумците им звучи като научна фантастика, но комуникацията с робота /роботите в тестовата фаза беше мнооого различна от сега и ме остави объркан; след редукцията почти не съм ги ползвал.

Южняк, според мен, в интерпретацията ти на хронологията на събитията пропускаш доста неща. 

Един път имаш "избор" на Сидни и инсталация на креативна версия на интерфейса на Бинг. В това отношение "личното предложение" от Бинг/Сидни да участваш е било продукт на твоя активност, довела до селектирането ти в таргет групата за тестване. Т.е. няма как да не си дал повод да се стигне до това с активността ти в мрежата. (малко е като "хем боли, хем сърби"😉)

Втори път - тестването е било на определена версия със зададени поведенчески параметри, т.е. нива на симулацията на човешко поведение (или както описаха някой съфорумници примерното деление на три нива от "напълно машинално" до "творческо"). И в това няма никаква научна фантастика, а съвсем естествен процес, в който ти си се съгласил да си "опитно зайче" за дълбокото обучаване и калибриране на Бинг, който предварително е минал някакво обучение в някаква извадка.  ....на днешно време всички се съгласяваме да сме в определен контекст "опитни зайчета" и дори и това може да "прозвучи" като научна фантастика, щото е много финен нюанса при различаването на това какво предоставяме при съгласяването ни с "бисквитките" в почти всички сайтове, които "посещаваме"... или пък използването на смарт устройства... 

А пък вече по отношение на "дълбокото обучение" има горе-долу, кратко, някой специфики, които според мен си заслужава да се споменат.

И Бинг, и Бард, и ЧатДжиПиТи, та и китайският Ърни са езикови модели, large language model (LLM) . Управляват се от ИИ-та, които оперират чрез "изкуствена невронна врежа"(ANNsArtificial neural network), която е базирана на биологичната невронна мрежа (biological neural network BNNs), и поради това софтуерната им архитектура е с множество "вътрешни"/скрити слоеве" от "неврони". Съответно ANNs, които се ползват от ИИ-татапредставляват "дълбоки невронни мрежи" (deep neural network (DNN).

...(кратко описан допълнителен детайл е, че от двата типа ANNs - FNN и RNN, чиято разлика е във вида на "потока на информацията", DNN са част от първия тип, защото за оптимизирането на разхода на изчислителна мощ нямат "обратна връзка","луупове", както при RNN, и провеждането на потока от информация е чрез определянето на "тежести" и редукцията по този критерий и последващо процесиране по веригата до "изхода". Съответно са подтип на FNN , наречен Convolutional neural network (CNN), защото не ползват "обратно разпространяване" или "повторно калкулиране на етап от изчисленията", а действат чрез "тежести". Или накратко "дълбоките невронни мрежи"(DNN) са и "конволюционни невронни мрежи"(CNN))

Обучаването им е чрез метода на "дълбокото обучение". А пък, поради това, че DNN са оптимизирани FNN, бидейки CNN, те спокойно оперират и в 

Преди 20 часа, Южняк said:

natural language processing (NLP)

или т.нар. - Обработка на естествен език, та и в разпознаването на образи, лица и т.н. - ето листа с приложенията им.

В смисъл, че за процесирането на информация от комплексна машина на Тюринг, каквато е ИИ, чрез "невронната мрежа", с която оперира, е съвсем естествено да има стимули, защото това са отправните критерии за процесиране на информацията.

Това, че не

Преди 20 часа, Южняк said:

оперира на принципа лъжа/истина,

е свързано с нашите ограничения, описани в моралните категории "Лъжа" и "Истина", които са част от негласно спазвания "Обществения договор". 

Моята теза е, че проблемът иде от лъжата, че всички спазваме стриктно "обществения договор"! ....

....най-малкото последният не е с една и съща форма за различните социални групи. И не само това, че има вариации на "обществен договор" в соц.групите, ами и съставите на самите соц.групи са "променлива", защото самото понятие за "социална група" е субективна абстракция, идеално множество, което може да бъде изградено по различни критерии(прим. "семейство", "колегия", "агитка" и т.н.). И основната критика в тезата ми се базира на "Моралният релативизъм".  ...това обаче е за другата ти тема за ИИ и "прецаканите човешки глави"... както и отвореният въпрос за:

Преди 20 часа, Atom said:

... Да вземем другата категория която споменах: "вярата". 

 

Редактирано от kipen2
  • Потребител
Публикува (edited)
On 2.11.2023 г. at 12:17, kipen2 said:

Кой ще е "победителя" в "битките на ИИ" 😉  ... в раздела има тема и за китайския ИИ.... а пък "битките" са тамън и като "Войната", четвъртата, "Хибридната", която се води от поне 15г., ама болшинството от хората не знаят... или пък може само да са чували евфемизма - "Война за съзнанието"...

в тази връзка е интересен листа с активните теми към момента на поста ми и "участието" с китайски йероглифи в раздел "физика" на nevas23525, хихиххи...

.... за 5 мин!

... евала! Бързо овладяхте атаката от бота! Браво екип!

Редактирано от kipen2
  • Модератор антропология
Публикува
On 3.11.2023 г. at 12:19, kipen2 said:

Южняк, според мен, в интерпретацията ти на хронологията на събитията пропускаш доста неща.

Естествено, че пропускам. Не разказвам цялата история, разбира се.  Защото е досадна.

  • Потребител
Публикува

Е щом в досадната история не те интересуват детайлите, то явно за това ИИ на Алибаба не те е поканил да го тестваш.

 Kитaйcĸият гигaнт Аlіbаbа пycĸa cвoя вepcия нa СhаtGРТ във вcичĸи cвoи пpoдyĸти

  • 3 седмици по-късно...
  • Глобален Модератор
Публикува

Интересна драма се развива във фирмата Open AI, създател на ChatGPT.

Сам Алтман, един от основателите на фирмата и неин генерален директор, беше уволнен на 17-ти ноември от съвета на директорите. Веднага след това 700 члена на екипа (от общо 750) заявиха, че също ще напуснат компанията ако Алтман не бъде върнат като генерален директор. Инвеститорите също искат Алтман да бъде върнат.

Аргументът за уволнението е, че "Алтман не винаги е бил откровен със съветът на директорите"

Веднага след уволнението Алтман заявява, че ще оглави отдел в Майкрософт, заедно с напусналите сътрудници.

Под натиска на инвеститорите и група учени, участващи в разработката на ИИ, още на 19-ти ноември започват преговори за връщането на Алтман. Съветът на директорите обявява пет дни по-късно, на 22-ри ноември, че Сам Алтман ще бъде върнат на поста генерален директор.

 

Преди решението за освобождаване на Сам Алтман от поста главен изпълнителен директор бордът на директорите на OpenAI получава писмо от изследователи, в което се предупреждава за опасно откритие.

Според Ройтерс писмото се отнася за откритие в областта на изкуствения интелект, което може да се окаже пробив по пътя към създаването на "свръхинтелигентност" и да застраши човечеството, което беше един от факторите за уволнението на Алтман.

Въпросният проект има работно име Q* (произнася се Q-Star). Някои от OpenAI смятат, че той може да бъде пробив в търсенето на така наречения "общ изкуствен интелект" (AGI) - автономна система, която "превъзхожда хората в повечето икономически ценни задачи".

Моделът разполага с огромни изчислителни ресурси и е успял да реши някои математически задачи на нивото на учениците от началното училище. Това кара изследователите да бъдат много оптимистично настроени за бъдещия успех на Q*, тъй като в момента ИИ може само да пише и превежда, а отговорите на един и същ въпрос могат да варират в широки граници.

От друга страна, математиката включва един-единствен верен отговор, което изисква от ИИ способности за разсъждение, напомнящи човешкия интелект. Този модел би могъл да се прилага например за нови научни изследвания. В края на краищата, за разлика от калкулатора, който може да извършва ограничен брой операции, AGI може да обобщава, да учи и да разбира.

Писмото на изследователите за Open Q* беше една от причините за уволнението на Олтман, който беше възстановен на работа няколко дни по-късно поради протест на персонала.

Според Ройтерс уставът на Open AI призовава за "авариен превключвател", който да спре всяка разработка, която може да бъде от полза за инвеститора, но да навреди на човечеството.

По този начин компанията трябва да "спре да се конкурира", ако някой друг е близо до овладяването на безопасен ИИ пръв или се появи заплаха.

Очевидно това е формулировката, заради която Алтман е уволнен.

  • Потребител
Публикува (edited)

Бай дъ уей, в другата тема за ИИ, като коментирахме за "по-развит ИИ", се оказва, че съм имал предвид нещо, което вече си имало име "AGI (Artificial General Intelligence) 

.....

Преди 11 часа, scaner said:

Сам Алтман, един от основателите на фирмата и неин генерален директор, беше уволнен на 17-ти ноември от съвета на директорите

Интересни неща стават със съвета на директорите, откакто Майкрософт придоби 49% от акциите.....

.....

...И докато едни се опитват да озаптяват достигането до AGI, а пък се борят да откраднат екипа на OpenAI, то други, в Китай, вече направиха пробив в моделирането на ядрените реакции. 

Което си е потвърждение, че ИИ няма нужда да го регулираш в развитието му, ако си го обучил синхронно с общочовешките ценности. А страхът от AGI, който изниква като контра-проекция, та и се насажда от "свободния избор на AGI"  ....ето интересна статия, вдъхновена от филмче - https://www.kaldata.com/it-новини/openai-ии-ще-се-отнася-с-нас-като-с-животни-ви-450440.htm

е тамън щото "Лъжата", лицемерието, манипулациите, симулацията на спазване на тези ценности са в основата на съвременната ни цивилизация. l

Такова е когато водещата идеология е Финансовият капитализъм. Не ставаме по-умни, а само по-хитри.

Редактирано от kipen2
  • Глобален Модератор
Публикува
Преди 1 час, kipen2 said:

Което си е потвърждение, че ИИ няма нужда да го регулираш в развитието му, ако си го обучил синхронно с общочовешките ценности.

Не можеш да го обучиш на общочовешки ценности. Има огромна разлика между това, да ги преживееш и те да станат част от поведението ти, или да научиш всичко за тях по описание. Първото изгражда емпатия, второто е просто сухо знание. Нещо като разликата между реалност и симулация.

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...
×

Подкрепи форума!

Твоето дарение ще ни помогне да запазим и поддържаме това място за обмяна на знания и идеи. Благодарим ти!