lördag 2 maj 2009

Datorers moraliska omdöme

Senaste numret av Philosophy now ställer flera frågor kring maskiner; robotar och datorer. Kan de vara moraliska varelser? Fatta beslut grundade på etiska ställningstaganden?

Wendell Wallach, Yale Interdisciplinary Center for Biotethics, utgår från det faktum att datorer på verkar i princip alla delar av det "moderna livet". Men likväl som datorer används på de flesta områden börjar nu robotar att användas allt mer. Ett av de mer skrämmande exemplen är nya typer av vapen använda i Afghanistan och Irak.

De som designar ett datorbaserat system kan inte alltid förutse hur det kommer att handla under nya omständigheter, med ny påverkan eller andra omständigheter. Detta, menar författaren, samtidigt som att datorerna blir allt mer sofistikerade betyder det också att de kommer att bli moraliskt resonerande. Därför arbetar ingenjörer och filosofer tillsammans för att skapa system och robotar som kan ta beslut baserade på moraliskt övervägande.

Denna inriktning inom forskningen kallas

Machine morality

Machine Ethics

Friendly AI

Artificial Morality

Roboethics

En del av de frågor denna inriktning ställer är frågan om maskiners kapacitet att skada människor. Författaren frågar:

*Är maskiner den typ av entiteter som kan "in principle make moral decisions?" Varför, varför inte?

*Är moraliskt beslutsfattande något som kan bli datoriserat? I så fall- hur?

*Vill mänskligheten att maskiner skall fatta moraliska beslut? När? Under vilka omständigheter?

*Vems eller vads/whats moral skall implementeras?

Författaren använder begreppet "funktionell moralitet" i sin framställning, vilket ställer många samhälls- och beteendevetenskapliga frågor.

Inga kommentarer: