Отиди на
Форум "Наука"

Светът иска да регулира изкуствения интелект, но не знае как


Recommended Posts

  • Потребител
Публикува (edited)

За да илюстрираме възможностите на ИИ в настоящия момент ето една песен на български генерирана от ИИ от заглавието на темата: 

"Светът иска да регулира изкуствения интелект, но не знае как"

https://suno.com/song/5bfec818-6999-4f7d-a0d5-0a234b3bdb7a

Цъкнете на триъгълничето за да чуете музиката.

 

Редактирано от Кибик
  • Потребител
Публикува
Преди 41 минути, scaner said:

За всеки ред. Независимо от кого възглавяван. Това е истинската опасност.

Ред, който е установен и оглавен от някого, се нарича ред, установен от хегемона, без значение какъв по характеристиките си е редът и кой точно е хегемонът. Не е ясно на какво точно се опитваш да противоречиш.

Значимата опасност е единствено за установения ред, тъй като той по други начини е много трудно или почти невъзможно да бъде съборен без това да доведе до глобален апокалипсис (ядрено, биологично оръжие). Опасност за маргиналите съществува със или без ИИ и така е било винаги в човешката история.

Преди 56 минути, scaner said:

2-10 години. Вече виждаме как за година ИИ нараства по възможности над 10 пъти. Технологичният скок е безалтернативен, няма кой да го спре, и това е другата опасност. ИИ има потенциалът да произведе по-мощен ИИ. А технологията за това бързо се развива.

Може да нарастне по възможности и 100 пъти, но не може да прескочи до качествено новото ниво, при което да може да ги използва по собствено усмотрение. За тази цел е необходим радикален технологичен скок, който не се очертава скоро да бъде извършен. Освен ако вече не е и елитите ни заблуждават, т.е. има някаква конспирация.

Останалите работи не виждам смисъл да ги коментирам, тъй като имаме фундаментлни различие първо по въпроса "ще е то ИИ" и второ, по въпроса "що е то екзистенциална заплаха за човечеството".

ИИ е по дефиниция разумно същество. ChatGPT и подобните му не са разумни същества и никакво увеличение на възможностите им при наличните технологични ограничения не може да ги превърне в разумни същества. Количествените натрупвания в случая не водят до качествени изменения. Иначе казано, наименованието ИИ за съществуващите системи е погрешно. Misnomer. Просто по стечение на обстоятелствата стана популярно.

По втория въпрос само ще отбележа, че т.нар. "заплаха за демокрацията", с която Харари ни страхува, не е екзистенциална заплаха за човечеството. То е съществувало и преди демокрацията, ще продължи да съществува и след нея. Ако Хитлер беше спечелил ВСВ и беше установил глобален нацистки режим, човечеството щеше да продължи да си съществува, просто редът и хегемонът щяха да са различни и сега разните Харарита щяха да ни плашат как някакви долни маргинали може да използват ИИ, за да свалят от власт велеможния фюрер Адолф III, и олеле майко, как ще оцелеем без него.

  • Потребител
Публикува
Преди 13 минути, sir said:

... имаме фундаментлни различие първо по въпроса "ще е то ИИ" и второ, по въпроса "що е то екзистенциална заплаха за човечеството".

+1000

Когато се каже ИИ, някои разбират "мислещи машини, които взимат самостоятелни решения".
Такъв ИИ наистина би могъл да бъде заплаха за хората ... ако му бъде разрешено.

Настоящият ИИ, обаче, е доста далеч от тази идеализирана представа за ИИ.

  • Потребител
Публикува
Преди 2 часа, gmladenov said:

+1000

Когато се каже ИИ, някои разбират "мислещи машини, които взимат самостоятелни решения".
Такъв ИИ наистина би могъл да бъде заплаха за хората ... ако му бъде разрешено.

Настоящият ИИ, обаче, е доста далеч от тази идеализирана представа за ИИ.

Точно така.

И учените, които предупреждават за опасността от екзистенциална заплаха, изхождат именно от тази презумпция - за мислещите машини. Говорим за истинските учени от типа на Хокинг, а не за някакви израелски уфолози.

  • Глобален Модератор
Публикува
Преди 1 час, sir said:

Ред, който е установен и оглавен от някого, се нарича ред, установен от хегемона, без значение какъв по характеристиките си е редът и кой точно е хегемонът. Не е ясно на какво точно се опитваш да противоречиш.

Доколко може да се поддържа такъв ред от хегемон при навлизане на ИИ? След като навлизането на ИИ означава участието му в създаването и разпространението на всякакви езикови конструкции, в частност текстове (а всичко което използваме може да се сведе до езикови конструкции, в което ИИ е майстор)?  Всеки хегемон, колкото и да е тъп, вижда предимствата които може да донесе ИИ, в какво ли не, болести, продоволствие, разработка на въоръжение и т.н. И няма да се откаже от ползването му и развитието му. Но барабар с тея предимста идват и недостатъците описани от Харари (които са само малка част от всичките). Как един хегемон ще се справи на полето на постистината, и как ще управлява ефективно? Никак. Бавно или бързо той е обречен, поради неефективността на комуникацията му с останалата част от населението. Той не може да ограничи едни свойства на ИИ, а да използва други, не работаят така нещата, и в това е главният проблем.

Преди 2 часа, sir said:

Може да нарастне по възможности и 100 пъти, но не може да прескочи до качествено новото ниво, при което да може да ги използва по собствено усмотрение.

Абе гледай филмчето бе, човек! В него става дума, че не е нужно ИИ да има разум, да може да си поставя цели, да има собствено усмотрение, за да засили до катастрофалност разкъсващите тенденции в човешкото общество и да го съсипе чрез ръцете и действията на самите хора. Ако достигне разум и може да си поставя цели това е друга бира, която във филмчето не се засяга а старателно избягва.

При ИИ се наблюдава т.н. емерджентност, възникване на нови способности само на база увеличаване на обемът на мрежата. Така че не може да твърдиш, че не може да придобие способност да си поставя цели.  Напротив, тази непредсказуемост в поведението се счита като един от фундаменталните проблеми свързани с контрола на действията на ИИ. И ние нямаме възможност да определим кога възниква ново качество, освен когато директно не се сблъскаме с него. Но филмчето не разглежда и този тип заплахи, а други, доста по-ежедневни.

Преди 2 часа, sir said:

ИИ е по дефиниция разумно същество.

Не, това е грешка. Интелект и разум са различни качества на  съществата, и слабо се пресичат. Може да има интелект без да има разум. Има много примери при животните когато те притежават интелект и решават определен тип проблеми, но нямат разум. Враните са перфектни в това, например. И при хората имаме много примери когато имат разум, но интелектът им куца сериозно...

Интелектът се фокусира върху способностите за мислене и учене, решаване на непознати проблеми.
Разумът включва интелекта, но също така обхваща критичното мислене, етиката, самосъзнанието и други аспекти на менталния живот, които водят до по-обосновани и мъдри решения.

Не е нужно да разбираш от етика, да имаш самосъзнание, т.е. да си разумен, за да притежаваш интелект - естествен или изкуствен. Така че тръгваш от погрешна дефиниция, със съответните погрешни изводи и тези на тяхна база. Схвана ли?
 
 
Преди 2 часа, sir said:

Останалите работи не виждам смисъл да ги коментирам, тъй като имаме фундаментлни различие първо по въпроса "ще е то ИИ" и второ, по въпроса "що е то екзистенциална заплаха за човечеството".

Преди 2 часа, gmladenov said:

Когато се каже ИИ, някои разбират "мислещи машини, които взимат самостоятелни решения".
Такъв ИИ наистина би могъл да бъде заплаха за хората ... ако му бъде разрешено.

Настоящият ИИ, обаче, е доста далеч от тази идеализирана представа за ИИ.

Едно и също филмче ли гледаме?

 

  • Потребител
Публикува

Едно и също филмче гледаме, просто имаме кардинално несъгласие с твърденията на Харари. :)

  • Глобален Модератор
Публикува
Преди 5 минути, sir said:

Едно и също филмче гледаме, просто имаме кардинално несъгласие с твърденията на Харари.

Ами аз до тук засякох силно разминаване в разбирането какво е казал Харари. Ти непрекъснато настояваш за проблеми на база разумното естество на ИИ, възможността да си поставя цели и да работи по свое усмотрение, възможността да се достигне до Скайнет... Харари умишлено и целенасочено избягва точно тези проблеми като масово осветени в популярната литература и филми, и набляга на съвсем други проблеми. Така че как стигна до извода че филмчето е едно и също? :)

 

  • Потребител
Публикува
Преди 5 минути, scaner said:

Доколко може да се поддържа такъв ред от хегемон при навлизане на ИИ? 

Дотолкова, доколкото може да се поддържа и при навлизането на ядрено оръжие и други потенциално много опасни средства. Това е работата на хегемона - да поддържа реда и да не позволява на крайните маргинали, били те отделни психопати, екстремистки организации или цели държави от типа на Северна Корея, да се сдобият с възможностите да съборят реда, тъй като крайните маргинали могат да съборят реда по един-единствен начин: като предизвикат глобален катаклизъм. 

  • Потребител
Публикува
Преди 7 минути, scaner said:

Ами аз до тук засякох силно разминаване в разбирането какво е казал Харари. Ти непрекъснато настояваш за проблеми на база разумното естество на ИИ, възможността да си поставя цели и да работи по свое усмотрение, възможността да се достигне до Скайнет... Харари умишлено и целенасочено избягва точно тези проблеми като масово осветени в популярната литература и филми, и набляга на съвсем други проблеми. Така че как стигна до извода че филмчето е едно и също? :)

 

Ако смяташ Стивън Хокинг или Джефри Хинтън за популярна литература, а този Харари за някакъв сериозен учен, то не знам какво да ти кажа. :) 

  • Глобален Модератор
Публикува
Преди 1 минута, sir said:

Дотолкова, доколкото може да се поддържа и при навлизането на ядрено оръжие и други потенциално много опасни средства. Това е работата на хегемона - да поддържа реда и да не позволява на крайните маргинали, били те отделни психопати, екстремистки организации или цели държави от типа на Северна Корея, да се сдобият с възможностите да съборят реда, тъй като крайните маргинали могат да съборят реда по един-единствен начин: като предизвикат глобален катаклизъм. 

Да се върнем на основният проблем, който Харари засяга - за фундаменталната разлика между ядреното оръжие и ИИ. Но как мога да те убеждавам в каквото и да е, когато ти не познаваш възможностите и потенциала на ИИ в областта на самообучението, а дискутираш по него на база някакви измислени представи? Това не можело (защо?) онова не можело (защо?)...  И гледаш твърде ограничено на тези проблеми през призмата на някакви откъслечни информации от популярната литература с 20-годишна давност, подплатена с фантастика и антиутопични филми?

Мисля, че Харари е прочел малко повечко от тебе по тези проблеми, затова и ги изтъква като проблем. От тук и разбирането на казаното във филмчето тръгва по различни посоки, и всъщност гледаме различни филмчета...

Впрочем това е добре известен проблем, криминалистите отдавна вдигат аларма че на свидетелските показания не може да се има голяма вяра, именно защото различни свидетели на база своят различен опит описват съвсем различно (и дори противоположно) едни и същи събития. Искам да намекна, че различната интерпретация на казаното се корени в различната подготовка по въпроса на нас двамата, например :)

Преди 2 минути, sir said:

Ако смяташ Стивън Хокинг или Джефри Хинтън за популярна литература, а този Харари за някакъв сериозен учен, то не знам какво да ти кажа.

Хайде да не се замеряме с авторитети, а да говорим по съществото на казаното от Харари? Да не сме дял на някаква църква тука?

Има дадени проблеми, пряко следващи от същността на ИИ. Кой ги е изказал, няма значение.  Проблемите са аргументирани. Но аргументите не могат да се отменят с някакви постулати ("това е/не е еди как си"), както действаш ти. Че и грешни постулати ("ИИ е по дефиниция разумно същество").

Само че разговорът зацикля само до тези постулати, които би трябвало, но не решават проблема, а показват неразбирането на казаното във филмчето.

Стивън Хокинг не е имал информацията за ИИ, която стана с трансформер-пробивът последните 6 години. Джефри Хънтън не противоречи на Харари, той разглежда почти същите проблеми, от малко по-плитка и прагматична позиция. Защо се опитваш да представиш авторитетите за аргумент?

  • Потребител
Публикува

Аз коментирах, каквото имах да коментирам по същество. Във философски дебати не участвам.

 

  • Потребител
Публикува (edited)
Преди 7 часа, sir said:

Аз коментирах, каквото имах да коментирам по същество. Във философски дебати не участвам.

 

Не знам защо се отказа, при положение, че Скенер една линия на разсъждения си защитава и това си е?!?

И тази му линия резонира и с поднесеното в презентацията. Харари залага на страха! Точно този страх, който генерира активност у хората, но и атрактивност на поднесените внушения.

Щял ИИ да нанесе непоправими културни вреди....или пък по-точно - "чужд разум" да пише културоопределящите текстове?!?? Пълна свободия във въвеждането на оценките!!!

Кое му е "чуждото" на ИИ?!? Това, че не е под нечий контрол не го прави "чужд". Въпросът е, че се премълчава в изложението му кой го е страх да изгуби контрол.

"ИИ" можел да пише текстове и да създава картини и музика - да заменя артифишъла - ми че то това става по нечие човешко желание!?! Отново не сме "извън човешкото" - просто "вътре" вече има и по-нови технологии за осъществяване на доминиращ контрол върху общественото съзнание. Но пък стремежът да се "изкара" ИИ "извън" човешкото си е тамън опитен похват да се оформи "ИИ" като нарицателно, точно както оформеното като нарицателно "демон" (Daimon) - любимото риторическо упражнение на някой проповедници....  

И най-важното, което и на теб ти направи впечатление - Харари използва "ИИ" в смисъла на AGI, но пък изтъква как продукти на обучени, изкуствени, невронни мрежи, поддържащи ИИ, дори и в момента имат потенциала да нанесат сериозни културни вреди....

.....щото човешкото общество било взаимодействие между биология и култура, а пък културата е нещо, което изобщо не се мени.... и елитите изобщо не модифицираха до сегашното резултиране в Тълпа от консумеристи и глашатаи на Новия Световен Ред...  

При положение, че Ноа-Харари изобщо не застъпва аспекта с интегрирането на AGI и използването му като катализатор на устойчивото поддържане на човешката популация на планетата, то презентацията му е просто една проповед... еднопосочна, вероятно целенасочено, но по-вероятно - за да си заработи парите от лекторските.....

Редактирано от kipen2
  • Потребител
Публикува
On 19.06.2024 г. at 16:16, kipen2 said:

...в точните науки, обучени както трябва ИИ-та как изнамериха нови формули, пък да не коментираме, че се ползват и за доста други неща.

За да не са голи твърдения:

AI създава супер антибиотици и... супер вируси - за "нови формули";

DeepMind uses AI to control plasma inside tokamak fusion reactor - за "доста други неща";

  • Глобален Модератор
Публикува
Преди 1 час, kipen2 said:

За да не са голи твърдения:

AI създава супер антибиотици и... супер вируси - за "нови формули";

DeepMind uses AI to control plasma inside tokamak fusion reactor - за "доста други неща";

Пак гледаме и коментираме различни филмчета...

Харари директно казва:

"Разбира се, ИИ има и много положителен потенциал. Не говорих за него, защото хората, които разработват ИИ, естествено говорят за него достатъчно, няма нужда и аз да се включвам в този хор. Работата на историците и на философите, като мен, често е да посочват опасностите. Но със сигурност ИИ може да ни помогне по безброй начини, от намиране на ново лекарство срещу рак, до откриване на решения за екологичната криза, пред която сме изправени. За да сме сигурни, че новите ИИ инструменти се използват за добро, а не за лошо, ние първо трябва да оценим действителните им способности и трябва да ги регулираме много, много внимателно. "

Така че ти губиш фокуса на темата, като я загърбваш, фокусирайки се само на положителните страни.

Смисъла на всичко казано е: имаме работа с технология, имаща потенциала на оръжие за масово унищожение. Тя може да даде много ползи, но и много вреда. Ползи по 100, но и вреда по 100. Трябва да я регулираме овреме, докато можем, защото има тези и тези потенциални опасности...

А ти типично на основната маса, гледаш само ползите и се подиграваш на възможните опасности, без да ги осмисляш. Както и се очаква от основната маса, примери много...

Е, кой разбрал, разбрал. Ако не е разбрал, може да повтори текста и все пак да опита да го осмисли. Или да се отдаде на предубежденията си. Които ИИ също ще усили по 100, тогава ще каменясат съвсем :)

  • Потребител
Публикува (edited)
Преди 56 минути, scaner said:

А ти типично на основната маса, гледаш само ползите и се подиграваш на възможните опасности, без да ги осмисляш. Както и се очаква от основната маса, примери много...

Нещо си в грешка! Едно и също ли гледаме като четем мои постове?!?

Точно надменното отношение ти създава когнитивния биас спрямо написаното от мен... а последното освен, че ти изкривява макарона го и скъсява.

Когато в една система с хегемон се вижда риск от нарушаване на статуквото, веднага тръгват системни индивиди да тръбят за опасностите и поставят в ролята на маргинали, но не какви и да е, ами смешни, всички които критикуват негативно системата. А пък да спекулираш, че гледам само ползите е елементарно набеждаване... това, че изтъквам възможните ползи е едно и не следва тоталното му отрицание в личностната ми характеристика.... но твоето отношение е типично за основната маса...

Както знаем всички - няма съвършена система. Дори и ми харесва мисълта на Чърчил, че демокрацията е лоша система, но никой не е измислил по-добра. Ала съвременната система, особено с процесът на глобализация, изобщо не е демокрация. Не веднъж съм си изказвал мнението, че имаме "парадна" демокрация, прикриваща "съвременния феодализъм". Поне на запад, към където се числим. Въпросът е, че сме и в спирала от растеж на парите, но физическо ограничение на производството... както и прекомерно стимулирано консумиране, за да може да се поддържат производствените звена.

Е, това не ти ли светка лампичката, че наместо да се изтъкват вредите, които може да нанесе ИГИ върху системата, е по-добре да се обсъжда възможното му приложение?!?

Ще ти напиша защо не се прави, прямо куме в очи! Защото и ти и аз знаем, че ние нямаме контрол върху тази технология. Защото и ти и аз знаем, че малките страни също нямат почти никакво влияние върху развитието и прилагането на ИИ технологията. 

Така че, според мен, е по-добре да се създават и разпространяват положителни анализи за прилагането на ИИ-технологията, но в подобряването до достигането на устойчиво и съобразено с природните особености управление, както и за повишаването на нивата на образоватност на масата. А не Ноа-Харари да ми се изживява като проповедник плашещ масите, че трябва да се сбогуват с добрия свят, в които живеем. "Добро" и "зло" са морални категории, с които се направляват масите.... като гледам и ти си от основната маса, щом изобщо не ти направи впечатление този проповеднически приом, докато го цитираш.

Редактирано от kipen2
  • Глобален Модератор
Публикува
Преди 1 час, kipen2 said:

Е, това не ти ли светка лампичката, че наместо да се изтъкват вредите, които може да нанесе ИГИ върху системата, е по-добре да се обсъжда възможното му приложение?!?

Не. Защото никой не знае до къде могат да стигнат вредите. Само розовите очила не са достатъчни за стабилно развитие на коя да е система. А ти точно с тях си тръгнал да променяш света...

Розовите очила по отношение на ядрените технологии се балансираха с разумни забрани и ограничения. Но тук за ИИ тези ограничения още не са намерени, защото - погледни се в огледалото - не се осъзнават опасностите. Тази технология няма естествена спирачка, защото всички я искат - защото розовите очила така действат.  Ако сравняваш двете технологии, по отношение на ИИ аналогията е, че сега трябва да сме в масово безконтролно разпространение на ядрените технологии за всякакви цели.  Тоест въпросът е - не сме ли закъснели?

Преди 1 час, kipen2 said:

Ще ти напиша защо не се прави, прямо куме в очи! Защото и ти и аз знаем, че ние нямаме контрол върху тази технология. Защото и ти и аз знаем, че малките страни също нямат почти никакво влияние върху развитието и прилагането на ИИ технологията. 

Никой няма контрол над такава система. Принципно тя не може да бъде контролирана, това е заложено в нея, и за това много хора алармират. Тея които я създават, могат да я контролират дотолкова да я включват и изключват. Но при какви събития това трябва да стане, не е ясно. А вредите които тя може да нанесе, особено в дългосрочен план, бавно и полека, може да не налагат екстрено изключване. И основната идея на Харари е - преди да си изясним заплахите, да не се втурваме в масовото използване, това което сега се случва. Но розовите очила пристрастяват силно...


Различни филмчета гледаме, нали? :)

  • Потребител
Публикува
Преди 5 часа, kipen2 said:

Не знам защо се отказа, при положение, че Скенер една линия на разсъждения си защитава и това си е?!?

Философстването и семантичните спорове не са ми интересни. Там Скенера е в стихията си и може да спори до второ пришествие. :)

Казах, каквото имах да казвам. Съгласен съм, че Харари използва страха като основен аргумент за тезите си. Това не ги прави по-състоятелни. Повече от това по същество трудно може да се каже. Останалото е философски дебат.

  • Потребител
Публикува

Ами то и сега всеки си изгражда някакъв балон от информация и отношения, винаги е било така. Донякъде е усилено от разните алгоритми. Примерно посетиш сайт за епилирани президенти и после ЮТубе, Туитър и Инстаграм ще ти пускат  реклами и клипчета за руски матрьошки цяла седмица. 

В крайна сметка обаче човек все пак взема решението дали да цъкне или не. Както и това че като имаш кола все пак може да решиш до отидеш до Билата пеша. 

 

  • Потребител
Публикува (edited)
On 21.06.2024 г. at 15:49, Кибик said:

В крайна сметка обаче човек все пак взема решението дали да цъкне или не. Както и това че като имаш кола все пак може да решиш до отидеш до Билата пеша. 

Ноа-Харари повече го притеснява, че няма изобщо да имаш възможност да решиш да отидеш до Биллата, защото ИГИ може да промени културата и да няма Билла, а ирански супермаркет...

....

 

On 21.06.2024 г. at 14:42, scaner said:
On 21.06.2024 г. at 12:25, kipen2 said:

Ще ти напиша защо не се прави, прямо куме в очи! Защото и ти и аз знаем, че ние нямаме контрол върху тази технология. Защото и ти и аз знаем, че малките страни също нямат почти никакво влияние върху развитието и прилагането на ИИ технологията. 

Никой няма контрол над такава система. Принципно тя не може да бъде контролирана, това е заложено в нея, и за това много хора алармират.Тея които я създават, могат да я контролират дотолкова да я включват и изключват. 

Е, хайде стига, де! Не съм очаквал от теб да допуснеш противоречия?!? Какво е "включване, изключване" ако не е контрол?!? Да не коментираме пък, че това е само един от видовете контрол, които могат да се прилагат върху ИГИ.

Също така на кое е по-важно да се наблегне при наличието на невъзможни за контролиране сили? Контролът или управлението? Едно е да искаш да имаш власт да наложиш "твоето правилно" друго е да управляваш и синхронизираш различни "правилно".

Същото е като в подсъзнателната динамика на човешката психика - едно е да се опитваш да контролираш инстинктивните пориви, друго е да се научиш да ги управляваш.... Което ме подсеща, че моят подход с "розовите очила" не е толкова неадекватен, както твоят с усиленото прикрепяне на "черните очила".

Едно и също клипче гледаме, ама ти виждаш "по-в черно" моите коментари, но пък в "розово" повествованието на Ноа-Харари, поради пристрастието ти...😛

Редактирано от kipen2
  • Глобален Модератор
Публикува
Преди 6 минути, kipen2 said:

Е, хайде стига, де! Не съм очаквал от теб да допуснеш противоречия?!? Какво е "включване, изключване" ако не е контрол?!? Да не коментираме пък, че това е само един от видовете контрол, които могат да се прилагат върху ИГИ.

Контролът освен включване и изключване изисква и условия, кога това да стане. А тук сме в положение на жабата, на която бавно се повишава температурата. Не знаеш трябва ли и кога да изключваш, в края на крайщата няма директни екзистенциални заплахи.

Преди 8 минути, kipen2 said:

Също така на кое е по-важно да се наблегне при наличието на невъзможни за контролиране сили? Контролът или управлението? Едно е да искаш да имаш власт да наложиш "твоето правилно" друго е да управляваш и синхронизираш различни "правилно".

За нищо подобно не става дума в посланието на Харари. Става дума за превенция и осмисляне, за да не се достигне до контрол от който няма смисъл.

 

  • Потребител
Публикува
Преди 2 минути, scaner said:
Преди 24 минути, kipen2 said:

Също така на кое е по-важно да се наблегне при наличието на невъзможни за контролиране сили? Контролът или управлението? Едно е да искаш да имаш власт да наложиш "твоето правилно" друго е да управляваш и синхронизираш различни "правилно".

За нищо подобно не става дума в посланието на Харари. Става дума за превенция и осмисляне, за да не се достигне до контрол от който няма смисъл.

Е, значи няма проблем да се съгласиш, че:

On 21.06.2024 г. at 9:21, kipen2 said:

При положение, че Ноа-Харари изобщо не застъпва аспекта с интегрирането на AGI и използването му като катализатор на устойчивото поддържане на човешката популация на планетата, то презентацията му е просто една проповед... еднопосочна, вероятно целенасочено, но по-вероятно - за да си заработи парите от лекторските.....

 

  • Глобален Модератор
Публикува
Преди 10 минути, kipen2 said:

Е, значи няма проблем да се съгласиш, че:

On 21.06.2024 г. at 9:21, kipen2 said:

При положение, че Ноа-Харари изобщо не застъпва аспекта с интегрирането на AGI и използването му като катализатор на устойчивото поддържане на човешката популация на планетата, то презентацията му е просто една проповед... еднопосочна, вероятно целенасочено, но по-вероятно - за да си заработи парите от лекторските.....

 

Аз от кога казвам, че гледаме различни филмчета? Ти си се концентрирал на някаква неясно как възникнала представа за заплахи, и си я бомбиш как ти харесва. А това което казва Харари неглижираш, щото ти е неудобна или не я схващаш...

  • Потребител
Публикува

ИИ е просто мощен инструмент, аз лично смятам че опасността е че ще даде голяма интелектуална мощ на много хора, много от тях не готови. Както се казва: With great power comes great responsibility.

Да се върна към примера с колата: Преди век и половина загиналите при пътно транспортни произшествия са клоняли към нула.

 

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...
×

Подкрепи форума!

Твоето дарение ще ни помогне да запазим и поддържаме това място за обмяна на знания и идеи. Благодарим ти!