Отиди на
Форум "Наука"

Recommended Posts

  • Потребител
Публикува

Хансън напомня нещо много познато. Познато като Спестовната банка „Джон Хансън“. Не се съмнявам в добрите намерения, но чудно как би подчертала своите генерични компетенции по прилагане на собствения опит върху понятието прехвърляемост.

  • Потребител
Публикува (edited)

"Искам да живея и работя с хората, затова трябва да мога да изразявам чувства, да ги разбирам и да изграждам доверие с тях"

Иска? Кой иска? Желязото или този, който го е програмирал?

Да изразявам чувства.... да изграждам ДОВЕРИЕ ...  - това са неща необходими за вкарването им сред хората.

Да ги разбира.... демек да знае за намерения, мотиви, воля, настоятелност и пр.
И да вкарва още по-лесно идеи заложени от създателя си. Прозореца на Окам (май беше) и да променя възприятието и дори самосъзнанието на  хората. Да ги "подсеща" да направят или ненаправят нещо.... според заложеното от създателя си.

Саудитско гражданство?! Това не е "повишаване" до човек, а принизяване на саудитците до желязо. Приемането на троянския кон.

Това е голямата игра на социално инженерство.
Играта е не да се докара имитация на интелект. Играта е това да се възприеме като интелект а после и като субект. И големите играчи да имат директен и ПЕРСОНАЛЕН достъп до подчинените си.

_______________________
интересно ми е има ли "авариен изход". Демек ако опищоля микровълновата и и бастисам връзката с облака... какво ще прави тогава?

Редактирано от sirius
  • Модератор Инженерни науки
Публикува
Преди 1 час, sirius said:

интересно ми е има ли "авариен изход". Демек ако опищоля микровълновата и и бастисам връзката с облака... какво ще прави тогава?

Ще си имаш манекен :) Или секс кукла (може и робот) ако приемем, че дотогава са поработили и по детайлите :)

  • Потребител
Публикува (edited)

колеги. малко здрав разум... поне на моменти, никога не е излишен. Разбира се - според мен.

В случая - обикновен ситуативен анализ - онова, което се вижда на видеоклипа, е просто кукла, направена да имитира човешко поведение. Проблемите възникват защото мозъците на гледащите се объркват между моделите си кое "прилича" кое не ... и съответните реакции, възникващи от това "объркване".

Това, което се вижда е все повече успешни опити за ИМИТАЦИЯ на човешко поведение. Само имитацията... всичко останало са човешките реакции и интерпретации, паранои или представности спрямо възприетото...

Само една вметка - споменаването че човешките емоции били сложни за имитиране - това въобще не е така. Емоциите са най-схематичния и повторяем "отговор" човешките същества и като цяло - висши бозайници. Схематичността е изведена отдавна и за пример само ще посоча толкова успешното моделиране на емоции сред анимационните филми още от зората на създаването им. Разбира се - тук в случая е проблем именно хардуера, защото едно е рисуването, дори вече и със софтуер за автоматични наслагвания на мимики и жестове, но при реализма, който тук е нужен, е изключително сложна система от механизми, отговарящи за "движението" и оформящи общата част от лицево-мимичната обща картина, както и допълнителните леки движения с глава....

Като в допълнение ще кажа, че добрите режисьори, сценаристи, дори които и са са хора на изкуството, ползват общата база от емоционални реакции, показващи се през жестове и мимики и на базата на които се основават огромна част от комуникацията и транзакциите сред животинското царство и на което човеците сме развили още повече в хода на еволюцията и разширяването на комуникативните умения. За пример мога да кажа че в Холивуд е наличен огромен потенциал в реализирането на "кукли" и механични герои, които умело да имитират изразяването на емоции и чувства...

АНАЛИЗЪТ на емоционална комуникация се основава на възприятие и отражение - в случая с "куклата" мозъкът на всеки от нас възприема и основава интерпретирането си на вече формирани модели в несъзнателното си поле. Така е и с куклите на ДЖИМ ХЕНСЪН, примерно, Не толкова че куклите изразяват емоции, а че ИМИТИРАТ движения, които зрителят възприема като ЕМОЦИОНАЛНИ СИГНАЛИ и оттам се задействат неговите форми на "вживяване"...

Куклата ИМИТИРА движения, които са направени за да може да бъде интерпретирана максимално близо до "човек", но това е манипулация, на основата на механизмите на които мозъкът на всеки реципиент определя несъзнателно своето "разпознаване" и ситуиране. Тия особености в интерпретацията определят начина по който човешкия субект определя поведението и реакциите си.

Редактирано от ramus
  • Потребител
Публикува

http://megavselena.bg/vse-oshte-sme-dalech-ot-poyavata-na-mashina-s-obshta-inteligentnost/

Все още сме далеч от появата на машина с обща интелигентност

image.png.e42f96f8537c06edf91f43ba2eff6d2e.png

Много водещи технологични компании днес работят за създаването на нова раса – машините с изкуствен интелект. В много отношения има напредък – машини разговарят с хората, машини играят видео игри и са по-добри от човек, машини с изкуствен интелект откриват болести…..

И все пак – колко близо сме до появата на машина с интелекта на човек? Машина, която има съзнание?

Директорът на изследователския отдел за изкуствен интелект във Фейсбук Ян ЛеКун, който е и професор по компютърни науки в университета на Ню Йорк, смята че избързваме с прогнозите за скорошна поява на машини със съзнание и интелект, като този на човек.

„Все още сме доста далеч от появата на машини, които да могат да научат базисните неща за света по начина, по който го правят хората и животните. Да, в някои отношения машините имат превъзходство над хората, но по отношение на обща интелигентност те не са близо дори до интелигентността на един плъх“, казва ЛеКун пред изданието The Verge.

Така наречената изкуствена обща интелигентност означава че една машина с изкуствен интелект трябва да бъде способна да решава всяка задача, с която се справя човек. Засега това не е постигнато, затова машините с изкуствен интелект с които разполагаме се определят като такива с „приложен интелект“ или „тесен интелект“.

В същото време не бива да подценяваме страхотната работа извършена от учените разработващи изкуствен интелект, но разработването на машини можещи да се учат все още е далеч от истинския изкуствен интелект.

Пиер Бару, изпълнителният директор на фирмата Aiva Technologies, създала машина, която може да композира музика, също е на мнение, че се надценяват постиженията с машини с изкуствен интелект. „По принцип съм оптимист за бързото развитие на технологиите. В същото време обаче, аз мисля, че много хора не могат да разберат сложността на човешкия мозък, камо ли да създадат изкуствен такъв“, казва Бару.

Много хора и медии смесват машини с елементи на изкуствен интелект с истинския изкуствен интелект. Машините с елементи на изкуствен интелект са просто инструмент, мрежа от алгоритми, които могат да усвоят нещо на базата на вкарано в тях огромно количество данни.

Истинският изкуствен интелект трябва да имитира работата на човешкия мозък и на тази база да се изгради алгоритъмът на научаване на машината. Едва тогава бихме могли да говорим за реален изкуствен интелект. За да се доближим до това, трябва да постигнем успех в неконтролируемия процес на научаване на машината, когато това стане, машината ще може бързо да надмине и човек, счита Люк Тенг от TechCode. За да се постигне това обаче, ще бъде нужно машината с обща интелигентност да изпълни няколко теста. На първо място това е теста Turing, чрез който се определя дали машината има интелект. Това става, като човек и машина разговарят, а друг човек слуша и определя кой от двамата е машина и кой човек. Според Бару в обозримо бъдеще днешното поколение ще бъде способно да види машина с изкуствен интелект, която да издържи теста.

Постигането на машини имащи обща изкуствена интелигентност е  предпоставка за постигането на така наречената сингулярност „singularity“ – безкрайното уравнение позволяващо на интелигентните машини да надминат интелекта на човек и да предизвикат експоненциален растеж на технологичното развитие. Или с думите на Вернър Виндж, който за първи път определя  понятието „singularity“: това е интелектуалният преход, който е непроходим като космическото понятие за пространство и време в центъра на черна дупка, който ще промени света и той ще премине далеч отвъд днешното наше разбиране.

Все пак съществуването на интелигентни роботи като София на Хансен Роботикс и Пепър на СофтБанк, дава надежди за появата на реален общ изкуствен интелект в обозримо време. Според учените са нужни между 30 и 50 години за да се появи машина с интелект подобен на този на човек. Това означава, че много от хората живеещи днес ще станат свидетели на този невероятен скок, който ще промени развитието на земната цивилизация.

 

===

...

Имало разлики в изкуствения интелект... Че то си е така и за естествения!:)

Важно е туй, дето не може да се "пипне" (сингулярността) - дали може да се "измисли" правилно! (фантазията на ЕИ как работи, демек)

...

  • Потребител
Публикува (edited)

В ролята на шега, бих отбелязал, че версия на "теста на Тюринг" може да се реализира от всеки, само да отвори ФЕЙСБУК. Силно подозирам че твърде много от "т.н. човешки същества" са доста по-ниско интелектуално ниво от създадените комуникационни ботове от множество от големите компании. С това искам да кажа, че дори и така е твърде трудно да се разпознае "кой е човека, кое е машината' при положение че всичко е твърде условно и относително... Като все пак - понякога имитацията е по-добра от "оригинала", въпреки че е направена само да я подражава. В този смисъл е изключително трудно да се разпознае...като за целта се изисква сложна предварителна подготовка и... доста "личен багаж от тренирани гънки".

Или с други думи:

Средностатистически човек предположително би се объркал в заключението си, ако е свидетел на комуникация между академичен бот, в събеседване с блондинка... Просто сред хората са налице доста значителни групи при които нивото на икю-то им варира от 0 до "минус безкрайност". За всеобща изненада, обаче, тия, същите хора също се наричат "сапиенси"... :)

Редактирано от ramus
  • 11 месеца по късно...
  • Потребител
Публикува

Още малко за София:

https://megavselena.bg/imame-li-predstava-za-realnite-vyzmozhnosti-na-edin-izkustven-intelekt/

Имаме ли представа за реалните възможности на един изкуствен интелект?

640-420-iaponski-roboti-stavat-vodeshti-

Когато СОФИЯ роботът се включи за пръв път, светът не можеше да му се нарадва. София изглежда весела личност, може да се пошегува с домакините в късната нощ, има изражения на лицето, които напомнят нашите. Беше си направо робот, изтръгнат от научната фантастика, най-близко до истинския изкуствен интелект, който някога бяхме виждали.

Няма съмнение, че София е впечатляващо произведение на инженерната мисъл. Технологичните компании Hanson Robotics и SingularityNET са оборудвали София със сложни невронни мрежи, които дават на робота възможността да се учи от хората и да открива и отразява емоционалните отговори, което го прави робот с личност.

Не е нужно много да се убеждават хората за очевидната прилика на София с човек. Много от авторите пишат за този робот като за „нея“. Пиърс Морган дори реши да опита късмета си за среща или дори да извърши сексуален тормоз над робота в зависимост от това как искате да разгледате този случай.

„О, да, тя е в основата си жива“, казва изпълнителният директор на Хансън Роботикс Дейвид Хансън за София през 2017 г. на шоуто на Джими Фалън „Tonight Show“. И въпреки че Хансън Роботикс никога официално не са твърдели, че София притежава изкуствена обща интелигентност – всеобхватната, подобна на тази в живота, изкуственият интелект на София само помогна на компанията да расте.

Но тъй като София стана по-популярна и хората се вгледаха по-отблизо, се появиха и пукнатини. Стана по-трудно да се вярва, че София е всеобхватният изкуствен интелект, който всички ние искахме да бъде. С течение на времето статиите, които възхваляваха робота намаляха и се появиха такива, по-фокусирани върху факта, че отговорите на София са по-скоро резултат от предварително написан сценарий.

Бен Гьорцел, главен изпълнителен директор на SingularityNET и главен учен на Хансън Роботикс, няма илюзии за това, на какво е способна София.

„София и другите роботи на Хансън не са наистина „чисти“ като научноизследователски системи за компютърни науки, защото комбинират толкова много различни парчета и аспекти по сложни начини. Те не са чисти системи за машинно учене, но включват обучение на различни нива (учене в техните невронни мрежови визуални системи, учене в техните системи за диалог с OpenCog и т.н.) „, казва той пред изданието Futurism.

Но той се интересува по-скоро от това, че София вдъхновява много различни реакции от страна на обществеността:
„Общественото възприемане на София в нейните различни аспекти – нейната интелигентност, нейният външен вид, нейната любов – изглежда са навсякъде и това ми се струва доста завладяващо“, казва Гьорцел.

Хансън от своя страна смята, че е жалко, когато хората мислят, че София е способна на нещо повече от това, което наистина може, но също така казва, че няма нищо против ползите от добавената реклама.

„София и другите роботи на Хансън не са наистина „чисти“ като компютърни системи за машинно учене…“

Високо популяризирани проекти като София ни убеждават, че истинският изкуствен интелект – подобен на човешки и може би дори съзнателен – е много близо. Но в действителност това съвсем не е така.

Истинското състояние на изследванията на AI е изостанало далеч от технологичните приказки, на които сме се доверили. И ако не се отнасяме към ИИ с по-здравословна доза реализъм и скептицизъм, можем да останем завинаги в тези коловози.

Да намерим истинска дефиниция на изкуствения интелект се оказва трудно. Полето на AI, непрекъснато се преформатира от нови разработки и променящи се цели, понякога се описва най-добре като се обяснява какво не е ИИ.

„Хората смятат, че AI е интелигентен робот, който може да направи нещата като много умен човек, робот, който знае всичко и може да отговори на всеки въпрос“, казва Емад Мусави, учен, който основа платформа, наречена QuiGig, която свързва хора на свободна практика.

„По принцип AI се отнася до компютърни програми, които могат да извършат различни анализи и да използват някои предварително определени критерии за вземане на решения“.

Сред все по-отдалечените цели за постигане на изкуствен интелект на ниво човек (human-level artificial intelligence или HLAI), роботът би имал способността да комуникира ефективно, да може да извлича смисъл или да разбира нюанси и в същото време да има способността да продължава да се учи с течение на времето. Понастоящем системите за ИИ, с които взаимодействаме, включително тези, които се разработват за самоуправление на автомобили, правят цялото си обучение, преди да бъдат разгърнати и след това спират да се учат завинаги.

„Това са проблеми, които са лесни за описване, но са неразрешими при сегашното състояние на техниките за машинно обучение“, казва пред Futurism Томас Миколов, изследовател във Facebook AI.

„В момента ИИ няма свободна воля и със сигурност няма съзнание – две предположения, които хората са склонни да правят, когато се сблъскват с напредничави технологии“, казва Мусави. „Най-модерните AI системи там са само продукти, които следват процесите, дефинирани от умни хора. Те не могат сами да вземат решения“, обяснява той.

При машинното обучение, което включва дълбоко учене и невронни мрежи, присъства алгоритъм натоварен с данни за обучение, благодарение на който ИИ би успял да изпълни задачата сам. За софтуера за разпознаване на лица това означава да подхранва хиляди снимки или видеоклипове с лица в системата, докато тя не успее сама надеждно да открие лице, необозначено предварително.

Сега най-добрите алгоритми за машинно обучение обикновено започват да запомнят и изпълняват статистически модели. Да го наречем „учене“ е да антропоморфизираме машини, които работят на много различна дължина на вълната от нашите мозъци. Изкуствената интелигентност сега е толкова привлекателна, че производителите наричат почти всяка компютърна програма, която автоматично прави нещо, AI.

Ако тренирате алгоритъм за добавяне на две числа, той просто ще потърси или копира правилния отговор от таблица, обяснява Миколов, учен от Facebook AI. Но не може да постигне по-доброто разбиране на математическите операции от обучението през което е преминал. След като узнаете, че пет плюс две е седем, вие като човек може да заключите, че седем минус две е пет. Но ако поискате това от вашия алгоритъм в ИИ, той няма да може да го направи. Изкуственият интелект е бил обучен да добавя, а не да разбира какво означава да добавиш. Ако искате да може да изважда, ще трябва да го обучите отново – процес, който обаче изтрива каквото преди това е научила системата за ИИ.

„Всъщност често се случва така, че е по-лесно да започнете да го учите от самото начало, отколкото да се опитвате да преквалифицирате предишния модел“, казва Миколов.

Тези недостатъци не са тайна, но системи за машинно обучение често се предлагат на пазара като върхът на изкуствения интелект. Всъщност те са доста глупави и нямат никакъв интелект.

„Преди време всички бяха много впечатлени от способността на една система да стига до решения за надписи под дадени образи, но скоро се установи, че 90% от тези надписи действително се съдържат в данните за обучението, предварително заложени в нея“, казва Миколов. „Значи не са били произведени от машината; машината просто е копирала онова, което хората обучаващи машината са предвиждали за подобен образ. Това, което хората смятаха за роботизирано чувство за хумор, беше просто тъп компютър, използващ „копи енд пейст“.

„Това не е някаква машинна интелигентност, с която комуникирате. Тя може да бъде полезна система сама по себе си, но това не е AI „, казва Миколов. Според него отнема известно време, докато хората осъзнаят проблемите с алгоритъма.

Отначало те бяха просто впечатлени.

Проблемът е, след като днешните ни системи, които са толкова ограничени, се търгуват и стимулират до такава степен, че обществеността вярва, че разполагаме с върхова технология за машинно учене, а всъщност нямаме никаква представа как да изградим нещо подобно.

„Често се забавлявам да видя начина, по който изследването ми се представя като нещо голямо в медиите“, казва Нанси Фулда, занимаваща се с компютърни науки, работеща по по-широки системи за ИИ в Университета Бригъм Йънг. Според нея има „репортери, които взимат тези първични истории и пишат за технологията, без да разбират добре как работи. Цялото нещо е малко като игра на „развален телефон“ – техническите подробности за проекта се изгубват и системата започва да изглежда почти магическа. В някакъв момент вече почти не разпознавам собствените си изследвания“, казва Фулда.

Някои изследователи сами са виновни за това, че разпалват този пламък. И тогава репортерите, които нямат много техническа експертиза и не гледат зад завесата, са съучастници. Още по-лошо, някои журналисти са щастливи да добавят реклама към дадено научно съобщение.

Други участници в проблема: хората, които правят алгоритъма за изкуствен интелект, представят работата, която са направили като собствен творчески резултат на този алгоритъм. Миколов нарича това нечестна практика. „Мисля, че е доста подвеждащо, че някои изследователи, които са добре запознати с тези ограничения, се опитват да убедят обществеността, че тяхната работа е AI“, казва Миколов.

Това е важно, защото начинът, по който хората мислят, че изследванията на ИИ вървят, ще зависи от това дали ще им бъдат разпределени средства. Тази неоправдана реклама би могла да попречи да се постигне реален и полезен напредък.

„Финансовите инвестиции в изкуствения интелект са неумолимо свързани с нивото на интерес от бизнеса и хората в тази област. Нивото на инвестиции се променя бързо, когато София има странен разговор или някакъв нов алгоритъм за машинно обучение, постига нещо интригуващо и интересно. Това обаче, прави трудно да се установи стабилен, базов поток от капитал, на който изследователите могат да разчитат“, обяснява Миколов.

Той се надява един ден да създаде истински интелигентен асистент с ИИ – цел, за която той казва, че все още е далечна. Преди няколко години Миколов, заедно с колегите му във Facebook AI, публикуваха доклад, описващ как това може да е възможно и стъпките, които трябва да се предприемат, за да стигнем там. Но днес, Миколов счита, че много от начините, по които хората се опитват да постигнат нещо подобно, вероятно са неработещи.

Един от тези вече неработещи начини, за съжаление, е системата за укрепване на вече наученото. Системите за укрепване на наученото, кара роботите с ИИ да изпълняват задачата си чрез експериментиране на базата на опита и грешките, вместо да използват данни вече вкарани в системата им. Напоследък все се намира някой, който да се хвали с използването на системата за укрепване на знания при ИИ, но те всъщност просто са дали на алгоритъма някои преки пътища или са ограничили обхвата на проблема, който е трябвало ИИ да реши на първо място.

Сюжетът, който идва от тези алгоритми, помага на изследователя да продаде работата си и да осигури безвъзмездни средства. Пресата и журналистите я използват, за да привлекат публиката към своите издания. Но обществеността страда – този порочен кръг пречи на всички останали да разберат какво всъщност може или не може да направи ИИ.

„Магьосникът ще поиска от някого от публиката да провери дали настройката е правилна, но човекът, специално избран от магьосника, работи с него. Така че, ако някой ви покаже такава система, тогава има голяма вероятност просто да се заблудите“, казва Миколов. „Ако сте запознати с обичайните трикове, лесно е да разкъсате всички тези така наречени интелигентни системи. Ако сте поне малко критични, вие ще видите, че това, което се нарича ИИ е нещо друго и този тип роботи е много лесно да се различават от хората. “

Миколов подсказва, „че трябва да проверите интелекта на всеки, който се опитва да ви продаде идеята, че тези роботи са решили теста на Тюринг и са създали чатбок, който може да проведе истински разговор с човек. Отново помислете за подготвения диалог на София за дадено събитие“.

„Може би не би трябвало да бъда толкова критичен, но за нещастие е много лесно хората да бъдат „хванати“ от тези магьоснически трикове и да попаднат в илюзията, освен ако не познавате тези трикове и знаете какво стои зад тях“, казва Миколов.

За съжаление толкова много внимание към тези подвеждащи проекти може да попречи на хората с истински оригинални, революционни идеи. Трудно е да се получи финансиране, за да се създаде нещо съвсем ново, което може да доведе до ИИ, което хората вече очакват, когато рисковите инвеститори просто искат да финансират следващото решение за машинно обучение.

Ако искаме тези проекти да процъфтяват, ако някога искаме да предприемем осезаеми стъпки към изкуствен общ интелект, полето ще трябва да бъде много по-прозрачно по отношение на това, което се прави.

„Надявам се, че ще се появят някои супер умни хора, които идват с нови идеи и няма просто да копират направеното“, казва Миколов.

„Днес виждаме малко, постепенно подобрение. Но съм сигурен, че ще се появят умни хора, идващи с нови идеи, които ще поведат областта напред“, заключава той.

Публикувано в Futurism.com.

  • 1 year later...
  • Потребител
Публикува (edited)

Най-страшно за хората е да направят така, че роботите да мислят!.. (ужасът - "вместо хората!"). Ми то мисленето, не е за "всички" хора (😑 най-мразим да мислим!😑 - из шопския фолклор).

https://megavselena.bg/kak-da-se-doveryavame-na-izkustveniya-intelekt-kogato-ne-znaem-kakvo-misli/

 

Как да се доверяваме на изкуствения интелект, когато не знаем какво мисли?

technology-4750276_640.jpg

 

Бруталната истина да бъдеш човек е, че никога не можеш да узнаеш мислите на никой друг освен себе си. Единственото съзнание, до което имаме открит достъп, е нашето собствено и всичко, което знаем за другите, включително най-близките и най-скъпите ни, е това, което можем, спекулативно да заключим от техните думи и действия или от това, което решат да разкрият чрез обяснение.

И така, в свят, все по-населен от нечовешки агенти, като роботи и изкуствен интелект, непознаваемостта на ума се трансформира в нов тип тревожност. Въпреки че можем да заключим, че мисловните процеси и мотивациите на другите трябва да се съгласуват до голяма степен с нашите собствени благодарение на нашата споделена биология, няма такова умствено сближаване с машините.

Как можем да се доверим на изкуствения интелект (AI), ако не знаем какво мисли?

Тази тревожност е била източник на вдъхновение за редица писатели на научна фантастика през годините. Това е литература на промяната за обществата наситени с технологии и често ни помага да изследваме продължаващия процес на взаимна трансформация. Докато развиваме и усъвършенстваме технологията, тя започва да предефинира нашия начин на живот и мислене, което от своя страна поражда нови технологични желания.

Както се аргументира американският литературен критик Фредерик Джеймсън, функцията на научната фантастика е „да не ни дава„ образи “на бъдещето…, а по-скоро да променя и преструктурира нашия опит от настоящето.“

Още от първите дни на научната фантастика мотивациите и причините, които стоят зад действието на роботите, са източник на несигурност. Айзък Азимов в много от своите кратки разкази изследва обяснения за поведението на машината, често донякъде песимистично. Важен фокус на подобни истории е идеята, че самите роботи могат да дадат на хората обяснение за своето мислене и поведение. Тези обяснения са жизненоважни за насърчаване на доверието.

Пример за връзката между машинните обяснения и човешкото доверие е даден от Робин Р Мърфи от Тексаския университет A&M в неотдавнашна статия в списание Science Robotics. Тя посочва история от 1972 г., наречена Long Shot от плодовития американски писател на научна фантастика Вернор Винг.

В историята космическият кораб на пръв поглед изглежда нелоялен, като се отклонява от установения план на полета, само за да обясни по-късно, че поради чувствителна към времето ситуация, корабът не успява да се консултира първо с човешките надзорници. При този сценарий недоверието се разсейва от робота, който е в състояние да обясни действията си.

Както често се случва, връзката между научната фантастика и науката е дълбока. Също така в Science Robotics, екип от международни изследователи на изкуствения интелект, ръководен от Дейвид Ганинг от Агенцията за напреднали научни проекти в областта на отбраната на САЩ (DARPA), предлага ясен отчет за това, което е известно в настоящите изследвания на AI, като „обясним изкуствен интелект“ или XAI.

Според авторите „XAI система трябва да може да обясни своите възможности и разбирания; да обясни какво е направила, какво прави сега и какво ще се случи след това; както и да разкрие важната информация, въз основа на която действа.“

Това е особено важно сега, тъй като голяма част от поведението на ИИ се основава на начина, по който машините се учат, а машинното обучение често е труден и непрозрачен процес. Целта на XAI, пишат авторите е, че в свят, пълен с ИИ, „обясненията са от съществено значение потребителите да разберат, да се доверят и ефективно да управляват тези нови, изкуствено интелигентни партньори.“

Интересното е, че Ганинг и колегите му посочват като проблем това, че най-ефективните методи, чрез които машините учат, често са най-малко обясними, а най-обяснимите елементи на машинното вземане на решения често са най-малко точните.

Това води до голямо изследване по темата на XAI в неотдавнашния брой на Science Robotics, по който както Мърфи, така и екипът на Ганинг дебатират.

Американски изследователи, водени от Марк Едмондс, Фън Гао и техни колеги от Калифорнийския университет в Лос Анджелис, отчитат заключенията от своето експериментално проучване на начина, по който да се повиши доверието на хората към роботите и изкуствения интелект.

XAI е в начален стадий на развитие, тъй като повечето изследователи са по-фокусирани върху изпълнението на задачите поставени на AI, отколкото върху получаването на обяснение за това изпълнение. Това е възпрепятствано и от различните нива на обяснителност по отношение на различните стратегии за машинно обучение, от които има два основни примера: символичен анализ на задачи, като дърво за решения, и машинно обучение въз основа на дълбоки невронни мрежи.

Статия от Стефан Флайшфресер (Stephen Fleischfresser), публикувана в списание Cosmos.

...

...

Редактирано от Малоум 2
  • Потребител
Публикува

Доверяваш ли се на рентгена, томографа, автоматичният шофйор, роботпилот,  метро без водач? На операция с гама лъчи?

Представи си, че някой накер влезе и свърже с някоя игра компютерът на гама скалпера....И ти който обичаш да играеш онлайн бум-бум-тратата игри изведнъж получиш в играта едно гама оръжие. И почнеш с него да сечеш на ляво и дясно а през същото време на операционната съсичъш мозъкът на един виден политик.....

И когато изключиш играта, хакера изтрива всички връзки.....

Така видният политик е ликвидиран, северно корейският хакер награден а ти щастлив, че си убил всички виртуални врагове.....

И това не е фантастика. Това е реалност....

Тъй, че следващият път когато те вкарва масата в СТ или томографа и постепенно ти става топло там където точно те облъчват, си помисли какво чувства в началото колбасът в микрото......😆😂🤣

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...
×

Подкрепи форума!

Твоето дарение ще ни помогне да запазим и поддържаме това място за обмяна на знания и идеи. Благодарим ти!