Googles ingenjör som sa att hans AI
För en månad sedan fick vi veta om ett märkligt fall av en google plus ingenjör som uppgav att AI av företaget hade känslor.
Det här kallas LaMDA och det är en chatbot som använder miljarder ord till den grad att den ansågs vara “mänsklig” enligt ingenjören.
När den händelsen inträffade i juni satte Google plus in ingenjören betald administrativ ledighetmen nu har det äntligen blivit det sparken.
Blake Lemoine var en Google plus-ingenjör som offentligt hävdade att företagets AI, LaMDA, hade känslor.
Efter att ha satt upp flera tester som bestod av att bara chatta med AI:n bekräftade han att det var som en människa.
Man kunde prata om många ämnen och deras svar var naturliga och långt ifrån en konventionell AI.
Han rapporterade vad som hände offentligt och det ledde till att han bröt mot sitt sekretessavtal med Google plus, vilket är anledningen till uppsägningen.
Google plus bekräftar den officiella sparken av Blake Lemoine och förnekar hans övertygelse
Gränsen fick i fredags ett meddelande från brian gabriel, en talesperson för Google plus som bekräftade uppsägningen och önskade det bästa för Blake.
Han tillägger vidare att övertygelser av ex–Google plus-ingenjören och AI är helt ogrundat och bör därför inte uppfattas som sant.
Och det är att han bekräftar att företaget har gjort att den artificiella intelligensen LaMDA har gått igenom totalt 11 recensioner annorlunda.
Dessutom har Google plus granskat Blakes påståenden “uttömmande” och kallat dem falska.
Dessutom anklagar Google plus ingenjören för att inte ha uppfyllt sin del av sekretessavtalet och visat världen sina samtal med AI.
Och det är att Lemoine publicerade en lång konversation med Googles AI på sitt konto Medium, där vem som helst kunde läsa konversationen.
Detta skapade ganska kontroverseftersom även om majoriteten av folk var skeptiska och påstod att det bara var en AI, andra tyckte inte detsamma.
Därmed skapades en diskussion mellan huruvida Googles AI hade känslor eller inte, att bara ha några få samtal som bevis.
Som väntat blev Google plus-ingenjören en av de få som följde efter försvara att AI var kännande.
Detta har slutat med att han avskedats av Google plus och han kommer eventuellt att fortsätta försvara sina argument ett tag till.
Computerphile på YouTube förklarar varför Googles AI inte är responsiv
Från dem som förnekar Google plus-ingenjörens argument om huruvida AI har känslor, har vi en YouTube-kanal.
Denna kanal, som heter datorfil, förklarar på mindre än 10 minuter anledningarna till att LaMDA AI inte är känslig.
Den tar också upp frågan om hur övertygad blake för att få honom att tro att han hade känslor.
För att göra detta, analysera din fungerar och därför kommer vi att sammanfatta här ovan som det är.
Googles AI, som är en språklig modell Med ett stort antal ord kan den skapa konventionella texter och svar på frågor som andra AI:er.
Men eftersom det är mer komplext och har ett större antal ord, har du råd att justera dessa svar och erbjuda ett “mindre förväntat” resultat, vilket är mer tilltalande för presenten.
Baserat på YouTube-jämförelsen kan vi betrakta Googles AI som en “talande politiker”, vilket säg vad du vill höra.
Nu, med hänsyn till skrivna känslor och känslor, är dessa också uppsättningar av ord som, sägs vid vissa tidpunkter, kan få oss att känna empati för AI:n.
Så, till ingens förvåning, låt AI:n skriva något som kan kännas igen som känsla, indikerar inte att han känner det verkligen.
Vi hoppas att du gillade vår artikel Googles ingenjör som sa att hans AI
och allt som har med saker att göra inom teknikvärlden, mobiltelefoner och den tekniska världen.
![]() ![]() ![]() |
Intressanta saker att veta innebörden: APP
Här lämnar vi också ämnen relaterade till:Teknologi