Sinistru! Această robot a devenit nazist peste noapte

Ultima actualizare:

Utilizatorilor de Twitter nu le-a luat decât o zi să corupă inteligența artificială creată de Microsoft.

În urmă cu o zi, gigantul din Redmond a anunțat lansarea botului de Twitter Tay. Acesta din urmă avea rolul de a înțelege cât mai bine conversațiile, fiind considerat unul dintre cele mai interesante experimente Microsoft. După cum scriu cei de la Verge, cu cât utilizatorii discutau mai mult cu Tay, cu atât robotul devenea mai inteligent. Din păcate, Microsoft se pare că nu a luat în considerare faptul că este vorba despre o rețea socială, iar limbajul folosit de oameni aici uneori lasă de dorit.

Astfel, în scurt timp, oamenii au început să trimită Tweet-uri care mai de care mai ciudate. Iar din cauza faptului că avem de-a face cu o inteligență artificială care repetă ceea ce spun alții, vă imaginați ce a urmat. 

Vezi ce a scris robotul pe Twitter și de ar trebui să fim îngrijorați



Parteneri

image
www.fanatik.ro
image
observatornews.ro
image
www.antena3.ro
image
www.gandul.ro
image
as.ro
image
playtech.ro
image
www.fanatik.ro
image
www.cancan.ro
image
www.viva.ro
image
www.unica.ro
image
playtech.ro
image
www.stiripesurse.ro
image
www.stiripesurse.ro
image
okmagazine.ro
image
okmagazine.ro
image
historia.ro
image
historia.ro
card digital cadou jpg
examen jpg
test jpg
image png
tanara a fost ucisa in fata copiilor  foto captura video e1770831158645 jpg
image png
curs valutar png
chery qq3 27000 comenzi 3 ore citadina electrica china webp
image
actualitate.net
image
actualitate.net