Megszelídül vagy elszabadul a mesterséges intelligencia

2018. október 11
A munkatárs fényképe
docens
Szoba: IE437
Tel.:
+36 1 463-2899
Email: meszaros (*) mit * bme * hu

Az előadás tartalma

Hogyan biztosítható az egyre egyszerűbben készíthető intelligens és tanuló rendszerek helyes működése, miként kezelhető az esélyegyenlőség és a felelősség, ha a kifejlesztésükhöz felhasznált adataink esetenként súlyosan torz képet festenek a valóságról, és pontos belső működésüket gyakran maguk a fejlesztőik sem értik?

Az előadás anyagai

Az előadás forrásanyagai, kapcsolódó olvasmányok

Felhőalapú AI

MLaaS: Google kurzusanyag
Nagyok: Google ML Engine, Microsoft Azure Cognitive Services és Machine Learning Studio, Amazon Machine Learning, IBM Watson Analytics
és kicsik, pl. h2o.ai (Stanford)
Ars technica cikk
Cloud GPU

Chatbot

Google api.ai, Facebook wit.ai, Amazon Alexa, Microsoft LUIS, IBM Watson Conversation és alkalmazásai, Oracle bots,
A chatbot ügyfélszolgálatoké a jövő
Felhőalapú fejlesztési példa
Hazudni is megtanultak

Megbízhatunk az adatokban?

AI in Risk assesment és race bias, cikk a témában
Önvezető járművek képfeldolgozása, Uber vezető és utas hack, Tesla baleset,

Személyes adataink védelme

brain imaging
"life mining", tömegmegfigyelés, intro, Kína - citizen score, UK: "karma police", US: NSA PRISM,

Értjük az MI működését?

Nvidia önvezető autó és cikk róla
Nature cikk

Military AI

Slaughterbots és ellenkampány (Stuart Russell vendégünk volt 2018-ban).
Újságcikk

AI safety

Bevezető vélemények és videósorozat az alapkérdésekről, TED-talk a témában
Max Tegmark (MIT, könyv), Yann LeCun (Facebook AI), Elon Musk (Tesla), Bill Gates (Microsoft), SciAm
Kutatók és felhívásuk
Ajánlás az USA kormányzat számára
Value alignment: Stuart Russell (Berkeley) előadása

Egyebek

Öntanító AI
Hardverbővülések: ARM, Huawei, Apple,

© 2010-2018 BME MIT | Hibajelentés | Használati útmutató