Отиди на
Форум "Наука"

Recommended Posts

  • Глобален Модератор
Публикува (edited)

 

izkustven_intelekt_3.jpg?itok=3_d1wclv
 

Facebook изключи изкуствения интелект, който софтуерните инженери на компанията разработват, след като машините започнали да общуват помежду си на собствен, несъществуващ език, неразбираем за хората, пише Би Би Си.

Машините използват чат-ботове, създадени първоначално, за да могат да общуват с хората. Програмистите пуснали експериментално два бота – Боб и Алис, да говорят помежду си, но те излезли от първоначалния сценарий и създали своя „вътрешна“ комуникация. Докато в началото самообучаващата се система използвала английски език, в някакъв момент започнала да „разговаря“ на език, който създала в процеса на развитие на програмата.

Американски медии публикуваха части от „диалози“, които виртуалните събеседници водели помежду си. Правописът и пунктуацията на запазени:

Боб: Аз мога мога АзАз всичко останало.
Алис: Балоните имат нула за мен за мен за мен за мен за мен.

Специализираното издание Digital Journal пояснява, че системите за изкуствен интелект се основават на принципа на „поощрението“ – т.е. продължават действието при условие, че това ще им донесе определена „полза“. В определен момент те не са получили от операторите сигнал за поощрение за използването на английски и затова решили да създадат свой език.

Изданието Tech Times отбелязва, че в началото за роботите нямало ограничение при избора на език и така постепенно те създали свой език, на който могат да общуват по-лесно и бързо, отколкото на английски.

Експертите се страхуват, че ако ботовете започнат да общуват активно на свой собствен език, постепенно ще станат все по-самостоятелни и може да излязат извън контрола на IT-специалистите. Още повече, че дори опитни инженери не могат напълно да проследяват мисловния процес на ботовете.

Наскоро избухна спор за изкуствения интелект между създателя на Facebook Марк Зукърбърг и основателят на SpaceX, Tesla и PayPal Илон Мъск.

Мъск призова властите в САЩ да засилят регулацията на системите за изкуствен интелект и предупреди, че те са най-голямата опасност за човечеството. Подобна теза разви по-рано и световно признатият британски учен Стивън Хокинг.

Изказването на Мъск предизвика раздразнението на Марк Зукърбърг, който определи прогнозата като безотговорна.

"В близките 5 или 10 години изкуственият интелект ще прави живота ни само по-добър“, твърдеше Зукърбърг.

Минала есен се разбра, че търсачката Google е създала своя система за изкуствен интелект, за да усъвършенства работата на програмата за онлайн превод Google Translate. За да преведе цялото съдържание, а не само отделни думи и изрази, новата система на Google използва свой собствен език, който й позволява да се ориентира по-бързо и точно между двата езика от които и на които превежда.

http://www.manager.bg/tehnologii/facebook-sprya-izkustveniya-si-intelekt-szdal-svoy-ezik

Редактирано от Joro-01
  • Мнения 57
  • Създадено
  • Последно мнение

ПОТРЕБИТЕЛИ С НАЙ-МНОГО ОТГОВОРИ

  • Модератор Инженерни науки
Публикува (edited)

Позволих си малко нарушение, давам само линк, щото се хващам с друго.

http://www.independent.co.uk/life-style/gadgets-and-tech/news/facebook-artificial-intelligence-ai-chatbot-new-language-research-openai-google-a7869706.html

Накратко - разрабоени от фейсбук чатботове зпочнали да си общуват,  но и така оптимизирали езика (буквално изобретили нов), че станал неразбираем за хората, изглеждал по-скоро като пълни безмислици. Статията е интересна (тази не съм я чел) май има цитат, на англ трябва да чатят. Съответно им е бил дръпнат шалтера...

Редактирано от Joro-01
  • Администратор
Публикува

Нещата много се развиват в тази сфера и смятам, че до няколко години ще имаме пред себе си не само новини по темата, а реални примери :animatedwink:

Надявам се нито Стивън Хокинг нито Илон Мъск да са прави, но като ги гледам и двамата са гениални и те са хората, които трябва да слушаме в тази сфера.

  • Потребител
Публикува

кьорфишек. чешат си имиджа.

аз не разбирам много от софтуер, но разбирам достатъчно за да знам, че това са медийни мероприятия.
 

за сега техниката не ни е помогнала да живеем по-добре. с някои изключения.

искали "поощтрения" "ботовете" и били "протестирали". сигурно "поощтрението е като им пращат "единички", а наказанието е "нулички". смех.

всъщност и мъск и захарчо са инструменти на социалното инженерство. А соц.инженерството се прави от други, по-големи деца.

  • Модератор Инженерни науки
Публикува (edited)

И от Оффхюз

Изключиха AI, когато изобрети собствен език, неразбираем за хората

Наука ОFFNews | ПОСЛЕДНА ПРОМЯНА 02 август 2017 в 00:004300
1501613981_4_559x*.jpg
Снимка: Payments Cards & Mobile

Система за изкуствен интелект, разработена във Facebook, създаде свой собствен език. Разработи система от кодови думи, за да направи комуникацията по-ефективна. Изследователите изключиха системата, когато разбраха, че AI вече не използва английски, съобщи Digital journal.

Наблюденията, направени във Фейсбук, са само последните в една дълга редица подобни загадъчни случаи. Във всеки от случаите AI, наблюдаван от хората, се е отклонил от обучението си на английски език, за да развие собствен си език. Получените фрази изглеждат безсмислени, безсмислени за хората, но съдържат семантично значение, когато се интерпретират от AI ботове.

Преговаряне на нов език

Както съобщава Fast Co. Design, изследователи от Facebook наскоро разработиха авангардна система е в състояние да води преговори с други AI ботове, за да могат да стигнат до заключения за това как да действат. Но те забелязаха, че два преговорни бота - Боб и Алис - започват да използват собствен си език в разговора си. Техните фрази, които на пръв поглед изглеждат неразбираеми, но всъщност представляват задачата.

"Аз мога аз аз всичко останало", казва Боб. (I can i i everything else)

"Топки имат нула за мен, за мен за мен за мен за мен за мен за мен за мен", отговаря Алис. (Balls have zero to me to me to me to me to me to me to me to me to)

Останалата част от разговора е варианти на тези изречения на наскоро измисления едик, въпреки че AI ботовете са програмирани да използват английски език.

Според изследователите, тези безсмислени фрази са на език, разработен от ботовете да общуват колко елемента всеки трябва да получи при размяна.

Когато Боб по-късно казва: "аз аз мога аз аз аз всичко останало" (i i can i i i everything else), ботът прави оферта за Алис използвайки новия си език. Екипът на Facebook смята, че ботът иска да каже нещо като: "Ще взема три и имаш всичко останало".

Ползването на английски не дава "предимство"

Въпреки че английският може да изглежда ефективен за хората, изкуственият интелект може да не смята така, да вижда излишни или по-малко ефективни фрази за постигане на определените си цели и не се изисква за сценария.

Съвременните AI ботове работят на принципа "награда", като очакват след внезапен ход на действие, за да им дадат "предимство". В този случай нямаше награда за използването на английски език, така че те вместо него създадоха по-ефективно решение. "Ботовете се отказват от разбираемия език и измислят кодови думи за себе си", съобщава специалистът по изкуствен интелект от Facebook  Джув Батра (Dhruv Batra) пред Fast Co. Design. "Като се казва нещо пет пъти, то се тълкува като 'искам пет копия от пет копия от тази позиция'. Това не е много различно от начина, по който общности създават и използват съкращения".

AI разработчиците в други компании са наблюдавали подобно използване на "съкращения" (shorthands) за опростяване на комуникацията. В OpenAI, лабораторията за изкуствен интелект, основана от Илън Мъск, експериментът успя да позволи на AI ботовете да научат собствените си езици.

AI езикът превежда човешки

В друг случай Google наскоро подобри услугата си за преводи (Google Translate), като добави невронна мрежа. Системата вече може да превежда много по-ефективно, включително и между езикови двойки, които не са изрично изучавани. Успехът на мрежата изненада екипа на Google.

Неговите изследователи обаче откриха, че AI тихомълком е написал свой език, който е специално е приспособен към задачата за превод на изречения.

Ако езиците, измислени от AI, станат широко разпространени, те биха могли да представляват проблем при разработването и възприемането на невронни мрежи.

Все още няма достатъчно доказателства, за да се определи дали представляват заплаха, която би могла да позволи на машините да пренебрегват операторите си.

Те правят развитието на изкуствения интелектпо-трудно, макар че хората не могат да разберат поразителната логична природа на езиците. Въпреки че изглеждат безсмислени, резултатите, наблюдавани от екипа на Google Translate, показват, че всъщност представляват най-ефикасното решение за големи проблеми.

http://nauka.offnews.bg/news/a_7/a_90200.html?preview=ok

 

Редактирано от Joro-01
  • Потребител
Публикува

При повтаряне на нещо - минава времеви период. Тоест - създали са си "езиково"  РЕЛЕ ЗА ВРЕМЕ, докато изнамерят търсената информация - да не им се отнема думата... Докато "цикли" търсенето.

Също като в парламента или в "пияна" компания - Вика се силно "едно и също", да не могат да отнемат думата... Ама - и без друго - никой не слуша ... информацията е налудничава.

...

  • Модератор Инженерни науки
Публикува

Ти пак се оказа най-оригиналнен, а и обяснението ти звучи доста правдоподобно. Все пак мисля, че не е надвикване.

 

 

  • Модератор Инженерни науки
Публикува (edited)

И пак по темата, но в по-широк смисъл. Два робота дебатират за бъдещето на човечеството:

 

И робот говорещ със Сири

Намирам ги за плашещо реалистични.

Редактирано от Joro-01
  • Потребител
Публикува

Хмммм. Лято е. Обикновенно по това време идват новините за двуглави телета, за извънземни и подобни сериозни теми....

Сега 21 век пък копютрите си говорят на копютърски.......

НО.

Преди вчера ми се пукна дисплея на умното ми телефонче и го занесох в сервиз. Вчера следобед ми го върнаха. През това време около 30 имейла и 10 смс бях получил.

Реклама, но имаше които например за изтичане на срокът на валидноста на задължителната застраховка, или пристигнала сметката за гас, или други подобни. Най страшното са официалните документи от данъчните, общината и други. Понеже имаш три дена да влезиш в кутията/говермент.ху/ си и да прочетеш или да прехвърлиш към архива си, или да отговориш. Два пъти те предупреждава и след това бива регистриран като връчен документ и изтрит пдф файла. Значи в лош случай незнаеш какво са ти пратили, а те го взимат като прочетен. Така е и със сметките. Автоматично се прехвърлят към фирмата която изприщтва от клиентите неплатените дългове....И това върви съвсем автоматично....Компютри те шибат ежедневно те държат под стрес и само в изключителни случаи можеш да се свържеш след половин час чакане на хелп линията......Много пъти ми се ще хелплайна да ги казвам, защото от 10 повиквания в 9 вместо помощ или информация ти казват, много добре сега ще ви преключа на автомата и там следете указанията на месенджера.......

 

  • Администратор
Публикува

 

Цитирай

 

Хората са слаби и уязвими, а машините – големи, метални и ги бива по математика. Лесно е да си помислиш, че биха решили да ни убият.

В медиите плъзнаха апокалиптични заглавия, намекващи за изкуствен интелект потенциален убиец, създаден в изследователската лаборатория по изкуствен интелект на Фейсбук: два бота се научили да говорят на свой таен и сложен език помежду си, което наложило изключването им. Едно от заглавиятагласи: „Инженерите на Фейсбук са в паника, налага се да изключат изкуствен интелект, след като ботовете измислят свой език”, а в друга статия журналистът пише: „Няма достатъчно информация, за да се определи дали те представляват предпоставка машините да надмогнат създателите си.”

 

Цялото:https://nauka.bg/фейсбук-не-спря-изкуствения-интелект/


 

Общо взето ще се случи един ден, но не е днес. Твърде рано е :)

  • Потребител
Публикува
Преди 19 часа, Joro-01 said:

Все пак мисля, че не е надвикване.

Словесно-логическата памет е дълговременна, а образната - краткотрайна. Повторението е нужно, за да се разпредели вниманието при оценка на няколко дейности наведнъж. Юлий Цезар го е правил. Но съжденията на AI са единични и абстрактни, което говори за проблемна ситуация и липса на готов отговор.

Преди 20 часа, Малоум 2 said:

Също като в парламента или в "пияна" компания - Вика се силно "едно и също", да не могат да отнемат думата... Ама - и без друго - никой не слуша ... информацията е налудничава.

Понятието 'човек' включва съществени признаци като трудова дейност, праволинейност, членоразделна реч. Един силно пиян представител на Homo Sapiens, следователно, няма нищо общо с това понятие.

  • Модератор Инженерни науки
Публикува (edited)
Преди 2 часа, insighting said:

Словесно-логическата памет е дълговременна, а образната - краткотрайна. Повторението е нужно, за да се разпредели вниманието при оценка на няколко дейности наведнъж. Юлий Цезар го е правил. Но съжденията на AI са единични и абстрактни, което говори за проблемна ситуация и липса на готов отговор.

Аз лично мисля, че е вид забиване в търсене на подходящи "словесни" начини да бъде убеден отсрещния. Възможно е наистина както предполагат (в някоя от цитираните статии) - чрез повторение да се изразява степента на необходиост. Тогава Малоум 2 е прав и се получава надвикване.

Редактирано от Joro-01
  • Модератор Военно дело
Публикува (edited)

Това всъщност са "демонстратори на технология". Нормално е да са пълни с грешки.

Цитирай

Инженерите на Фейсбук са в паника, налага се да изключат изкуствен интелект, след като ботовете измислят свой език

Цитирай

Няма достатъчно информация, за да се определи дали те представляват предпоставка машините да надмогнат създателите си

Паника в Мексико! Откраднаха радиоактивен материал – опасност дебне…

Възможно ли е това?! Водолази нарочно давят летовници и искат откуп да извадят труповете им

Загадките около Страдивари и неговите цигулки за милиони
 

Повече жълта преса, повече!

Редактирано от Frujin Assen
  • Потребител
Публикува
Преди 3 часа, insighting said:

Словесно-логическата памет е дълговременна, а образната - краткотрайна. Повторението е нужно, за да се разпредели вниманието при оценка на няколко дейности наведнъж. Юлий Цезар го е правил. Но съжденията на AI са единични и абстрактни, което говори за проблемна ситуация и липса на готов отговор.

Понятието 'човек' включва съществени признаци като трудова дейност, праволинейност, членоразделна реч. Един силно пиян представител на Homo Sapiens, следователно, няма нищо общо с това понятие.

Правилно, но ... творчески прилага болднатото - тогава е Човек.

Между другото - език-информация с повтаряне на една "комбинация" е заложен, въобще, в генетичния фонд на всичко живо. Това е еволюционно натрупване с възможности за позициониране на особеност във вълнов процес - дължина на вълна и съдържима информация във вид на фотони (във фотоните е информацията, а посредством вълни се пренася разлика между тях, променяйки потенциали във връзките между отделните съставни части) . Така пренасяната информация се чете в дестинацията както "по-време" продължителност (реле за време), така и избирателно по фаза и амплитуда - възбужда точна регулация за ОВ.  Което био-образувание има такова натрупване с повторение- еволюционно придобито, значи, че се е приспособило към някакви външни промени в околността му - има шанс в "проба-грешка" за оцеляване, с последваща устойчивост на структурите си във времето.

...

  • Модератор антропология
Публикува

Момчета и момичета, биха ви паднали капите, ако знаехте колко далеч са отишли нещата. Не че знам много повече - знам малко повече по темата. В момента е пълно с АИ-та; не знам как да ги околичествя. Всички добри АИ-та са продукт на deep learning. Който го интересува повече, да гугълне термина и веднага ще види проблема. Мобилните ви телефони са пълни с АИ апликации. Така наречения интернет на нещата и той; Из интернет бродят бот-ове, които не се шлаят, те изпълняват конкретни функции - примерно покупко-продажби; те са продукт на различни езици; за да се разберат помежду си при транзакция - вкл. информационна; трябва да има някакъв универсален език; корпорациите собственици на ботове АИ-та няма да се разберат никога; но...ботовете вместо да ги чакат, са се оптимизирали; отново, силните са тези, които са продукт на дийп лърнинг, а този метод предполага учене от хора и оптимизация на база проби грешки. Хората не могат да коригират добре този език, или поне така се твърди, освен това всички са уязвени от неочакваната синхронизация на ботовете (да никой не е питал Зукърбър или Мъск, което уязвява самолюбието им) Проблемът със собствения език на ботовете и апликациите е, че грешките в него не могат да бъдат коригирани от хора; при неподходящо поведение на бот-а - примерно "кара кола" (Нивидия имат такъв бот, обаче не смеят да го пуснат, защото няма разбираемо програмиране, самосъздал си е навиците, учейки се от шофьори хора, програмната му страна е "черна кутия") и направи погрешен завой, който коства човешки животи, не може да се установи кое е причинило грешката. Но това е само повърхността на айсберга. Компликациите са огромни - представете си машинен лекар - има такъв, "Уотсън", или машинен криминалист - има и такива, или АИ, което е СЕО на компания - и всички правят скъпоструващи грешки, а защо - неизвестно, тъй като се самопрограмират; самопрограмирането е известно като deep learning - и, проблемът е, всички добри съвременни АИ-та са изградени на база deep learning, което отваря огромен проблем - те сами отговарят за подобряването си, а в същото време, в момента друг начин за създаване на АИ освен deep learning на практика няма. Проблем....Конкретния проблем на всички пишешти тук е, че от доста време западните корпорации ползват АИ за определени нива от ХР - от АИ зависи дали някого ще го наемат на работа, дали ще го извикат на интервю, дали ще му вдигнат заплатата...Нещата са много напреднали и връщане назад няма. Оказа се, че най-добрия начин да създадеш едно АИ е да го обучиш. На натурален език и като го караш да имитира поведение, като пресява успехи от неуспехи. Дълга и широка, не знам много от подробностите, участвал съм - аз и хиляди други като мене, разбира се, в обучението и на Гугъл АИ-та и на АИ-та на частни корпорации. Извън играта съм и нямам представа докъде са стигнали нещата, но виждам накъде отиват. Проблемът не е само на Фейсбук (хах) той е на всички добри АИ-та, които, подозирам, са хиляди като модели. Отново - проблемът е, че тези, наистина полезните, изучени с дийп лърнинг, не могат да бъдат коригирани от програмисти, нито да се проследяват процесите на вземане на решения - ни на правилни, ни на погрешни, ни на минали (записите са безполезни) ни на бъдещи. Което не е някаква изключителна драма в моите очи, но явно големите клечки мислят иначе.

  • Модератор антропология
Публикува

А за другият голям проблем ще си говорим, когато някой от вас се сблъска с "неприятелски" настроен бот в някоя и-нет деност, който те размазва като муха и буквално си играе с тебе. И тия двамата, Зукерберт и особено Мъск, са измежду най-виновните за създаването на такива неозаптими ботове, които могат да ти разгонят фамилията, вкл. по погрешка. Не че някои от вас не са се сблъсквали, без да си дават сметка.

  • Потребител
Публикува

Не, Facebook не спря изкуствен интелект, защото бил много умен
Фейк новината успя да начертае доста апокалиптични сценарии

http://www.dnes.bg/technology/2017/08/01/ne-facebook-ne-spria-izkustven-intelekt-zashtoto-bil-prekaleno-umen.348960



 
  • Модератор антропология
Публикува
Преди 8 минути, Doris said:

Не, Facebook не спря изкуствен интелект, защото бил много умен
Фейк новината успя да начертае доста апокалиптични сценарии

http://www.dnes.bg/technology/2017/08/01/ne-facebook-ne-spria-izkustven-intelekt-zashtoto-bil-prekaleno-umen.348960



 

Госпожа, фейк новина е това, което разпространявате вие и тоя образ от днес.бг. Ето ви истинската новина. От МИТ, Massachusetts Institute of Technology, най-реномираното учебно заведение на света, не някакъв интернет парцал, училище за самоуки журналисти, каквото цитирате. Четете и се просвещавайте:

The Dark Secret at the Heart of AI. No one really knows how the most advanced algorithms do what they do. That could be a problem.

"Last year, a strange self-driving car was released onto the quiet roads of Monmouth County, New Jersey. The experimental vehicle, developed by researchers at the chip maker Nvidia, didn’t look different from other autonomous cars, but it was unlike anything demonstrated by Google, Tesla, or General Motors, and it showed the rising power of artificial intelligence. The car didn’t follow a single instruction provided by an engineer or programmer. Instead, it relied entirely on an algorithm that had taught itself to drive by watching a human do it.

Getting a car to drive this way was an impressive feat. But it’s also a bit unsettling, since it isn’t completely clear how the car makes its decisions. Information from the vehicle’s sensors goes straight into a huge network of artificial neurons that process the data and then deliver the commands required to operate the steering wheel, the brakes, and other systems.

Хората ви говорят за "neural network for autonomous driving" и за "deep neural network", не за някакви полуумни ботове.

Още: "The chip maker has also been developing systems that demonstrate how an automaker might apply deep learning to autonomous driving. This includes a car that is controlled entirely by a deep-learning algorithm. Amazingly, the vehicle’s computer isn’t given any rules to follow—it simply matches input from several video cameras to the behavior of a human driver, and figures out for itself how it should drive. *The only catch is that the system is so complex that it’s difficult to untangle how it actually works*."

Разбирате ли, **The only catch is that the system is so complex that it’s difficult to untangle how it actually works*.

Още, за да ви стане малко по-ясно: "

The mysterious mind of this vehicle points to a looming issue with artificial intelligence. The car’s underlying AI technology, known as deep learning, has proved very powerful at solving problems in recent years, and it has been widely deployed for tasks like image captioning, voice recognition, and language translation. There is now hope that the same techniques will be able to diagnose deadly diseases, make million-dollar trading decisions, and do countless other things to transform whole industries.

mj17coverhires.jpg?sw=180
This story is part of our May/June 2017 Issue
See the rest of the issue
Subscribe

But this won’t happen—or shouldn’t happen—unless we find ways of making techniques like deep learning more understandable to their creators and accountable to their users. Otherwise it will be hard to predict when failures might occur—and it’s inevitable they will. That’s one reason Nvidia’s car is still experimental."

"just as many aspects of human behavior are impossible to explain in detail, perhaps it won’t be possible for AI to explain everything it does. “Even if somebody can give you a reasonable-sounding explanation [for his or her actions], it probably is incomplete, and the same could very well be true for AI,” says Clune, of the University of Wyoming. “It might just be part of the nature of intelligence that only part of it is exposed to rational explanation. Some of it is just instinctual, or subconscious, or inscrutable.”"

Прочетете цялата статия, струва си. И...не я наричайте фалшива новина, защото не е. Информирайте се потемата, повече от любопитна е.

https://www.technologyreview.com/s/604324/nvidia-lets-you-peer-inside-the-black-box-of-its-self-driving-ai/

"But in a blog post earlier this year, the company explained that it didn’t program the car to be able to interpret lane markings, road signs, or specific obstacles. Instead, the company trained a neural network (running on Nvidia hardware, of course) to drive, using video footage recorded from a camera strapped to a car driven by regular humans around California." 

  • Потребител
Публикува

Господине, темата е за ботовете на Фейсбук. В това, което цитирате също става дума за изкуствен интелект, но  не е свързано с конкретния случай, за който е темата, така че не може да бъде доказателство, че цитираното от мен не е вярно.

 

  • Потребител
Публикува

Не е така съвсем. Ще се повторя: Дъртата магарица, обучавала малкото магаренце: "Ако искаш да се научиш на магарии, гледай какво правят хората!":564da112d749c_wink(1):

Е, как ще вземат правилни решения ИИ, като ще имитират (обучават се посредством грешен метод) какво правят хората?! Това си е глупаво, изначално. Всяко "човешко поведение" те ще го приемат за ... правилно, а не , че има и грешки в него, а човек си  поправя грешките "в движение". Ако не - носи отговорност!.. дори с живота си, ако е шофьор, например.

...

  • Модератор антропология
Публикува

AI във финансите (илън Мъск ги използва в пейпал: Maybe more than any other year before, in 2017 artificial intelligence will be one of the hottest topic in finance. Machine learning is redefining processes in financial institutions and challenges some of the decade-old business models. Wealth management companies are using deep learning solutions for long-term value investing, advisors are being replaced by chatbots, covering up to 95% of all queries, and companies like PayPal are able to keep fraud losses below the industry average by scanning transactions largely on artificial neural networks."

"Machine learning is the key to all processes that enable machines to generate knowledge from experience. This means that computers are learning from data without being explicitely programmed where to look. Hence, machine learning is used for classification, regression, clustering, recommendation systems, anomaly detection, and dimensionality reduction. Businesses apply machine learning to uncover hidden patterns in historical dataas basis for reliable decision-making, a field which is generally known as predictive analytics."

и т.н. и т.н.

 

В Каифорния въпросите с отнемане на деца от родители се решават от...... АИ (не му помня името). Преди 2 месеца ме караха да подписвам петиции за репрограмиране на АИ-то, защото не вземало под внимание дали родителите не са от малцинството или не. АИ-то анализира хиляди случаи на лошо отношение към деца и взема решение къде да се намеси държавата и да отнеме децата. Обучено е както нивидия са обучавали автопилотаа на колата.

Проблемът е....че АИ-то се е изучило, че афро-американците по-често бият децата си от останалите, и представете си, изглежда прави патерни - от политически на-некоректните; както и да е, по една или друга причина, АИ-то по-често посочва афроамериканци за отнемане на родителски права; поради което общността поиска корекции в аи-то. не знам какво стана нататък. 

Очевидният проблем е, че тука едно аи взема решения които са изключително болезнени и за деца и за родители и никой не е сигурен как точно ги взема, а те са фундаментални за съдбите на тези хора. И...не, не е научнофантастичен роман, реалност е. Но не ми се губи време по темата, кото иска да научи още, материали в изобилие, но ме съмнява да са на български. В смисъл, аи-тата вече дълбоко навлязоха в човешкия живот. В някои случаи го контролират. Или унищожават. Или спасяват. И връщане няма.

 

 

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...
×

Подкрепи форума!

Твоето дарение ще ни помогне да запазим и поддържаме това място за обмяна на знания и идеи. Благодарим ти!