Por qué la inteligencia artificial nos asusta. Posible amenaza de la inteligencia artificial

En este artículo, intentaré ampliar una pregunta que se planteó casualmente en la publicación de Gatebox o algunas reflexiones sobre el futuro de la inteligencia artificial.

Brevemente, "mi" tesis es que, si alcanza el nivel sobrehumano, la IA se convertirá en algo así como un dios, ya sea que exista por separado de una persona o junto con ella. En el primer caso, queda abierta la cuestión de la coexistencia de la humanidad con el dios creado por ella: o nos cuidará de todas las formas posibles (como cuidamos de las plantas raras), o nos exterminará (como exterminar, por ejemplo, una maleza dañina en nuestro jardín), o no nos pondrá a prueba para nosotros ningún interés -al igual que somos indiferentes a un poco de hierba en el césped. Es absolutamente imposible predecir las metas y el sistema de valores del dios recién aparecido; como diría el creyente, "los caminos del Señor son inescrutables".

Menos impredecible es el comportamiento de la IA, que ha tomado una forma intermedia entre un hipotético dios futuro y los actuales sistemas relativamente primitivos. Convencionalmente, dicha IA se llama fuerte y corresponde a una humana en términos de su nivel. A su vez, se puede dividir en dos categorías: con autoconciencia y sin ella. Qué es la autoconciencia es una pregunta abierta y muy compleja. A mi entender, se trata de un conjunto de sensaciones físicas y mentales desarrolladas por la naturaleza a lo largo de millones de años de evolución. La característica clave de la autoconciencia es la oposición de su portador al mundo circundante. Si es posible reproducirlo artificialmente, si surgirá por sí mismo en un sistema intelectual (que de repente tomará el control y tomará conciencia de sí mismo) es el tema de una gran discusión por separado. Por ahora, simplemente arreglaremos la posibilidad de ambas opciones y consideraremos cada una de ellas.

Desde mi punto de vista, una IA fuerte sin autoconciencia es bastante segura (o mejor dicho, predecible), ya que no puede tener ningún deseo. Toda su conducta estará sujeta a los fines y limitaciones que en él se establezcan. Pero curiosamente, en este sentido, una IA fuerte con autoconciencia no es fundamentalmente diferente de una IA fuerte sin autoconciencia. Solo nos parece que tenemos libre albedrío y somos independientes en nuestras acciones; de hecho, esto no es así. Todas nuestras metas, necesidades y limitaciones están programadas en nosotros por la madre naturaleza: vivir, comer, beber, amar, descansar, etc., o nos las impone el entorno (educación recibida en la infancia, cine y ficción, leyes, tradiciones y etc.) - luchar por el poder, hacer una carrera, ayudar a otros, explorar el mundo, etc. Por lo tanto, teóricamente, de manera similar, es posible programar y entrenar IA autoconsciente, que, como nosotros, albergará la ilusión de que tiene libre albedrío.

Desde el punto de vista de la amenaza probable, veamos la IA con autoconciencia: ¿qué amenazas puede representar para nosotros y cómo se pueden evitar o al menos reducir? Obviamente, el entrenamiento de una IA fuerte debe incluir necesariamente la ética. Al igual que al observar el comportamiento de un conductor experimentado, una IA débil domina la función de un piloto automático, a una IA fuerte se le puede enseñar ética "alimentándola" con literatura, desde cuentos relativamente simples y preferiblemente moralizantes hasta libros con personajes complejos y contradictorios. De una forma u otra, la literatura mundial refleja tanto la ética misma como su transformación, que se expresó en la humanización y globalización de las relaciones sociales.

¿Cómo aprenderá ética una IA fuerte sobre la base de la literatura mundial? Como cualquier sistema verdaderamente inteligente, la IA fuerte podrá detectar relaciones y patrones en un conjunto de datos. Después de leer un millón o dos libros, debería desarrollar fácilmente una especie de analogía de los diez mandamientos cristianos, pero interpretarlo es tan difícil, teniendo en cuenta las circunstancias, como lo hace una persona. Desafortunadamente, no funcionará prescribir estos mandamientos explícitamente, como las tres leyes de la robótica de Isaac Asimov, y he aquí por qué. Déjame recordarte (cito de Wikipedia):

  • Un robot no puede dañar a una persona o por su inacción permitir que una persona sea dañada.
  • Un robot debe obedecer todas las órdenes dadas por un humano, a menos que esas órdenes sean contrarias a la Primera Ley.
  • El robot debe velar por su propia seguridad en la medida en que esto no contradiga la Primera o la Segunda Ley.
  • Con esta formulación, obtenemos un sistema muy primitivo con un conjunto limitado de acciones. Por ejemplo, estará bastante indefensa en operaciones policiales, militares o de rescate. Puede argumentar que el uso de robots en la guerra es muy indeseable, y se equivocará. Además de que esto reducirá las pérdidas entre el personal del país que utiliza estos robots, también disminuirán las pérdidas entre la población civil del país en cuyo territorio se desarrollen las hostilidades. En particular, debido a un mejor reconocimiento de los objetivos militares y la estricta observancia de la carta, la ética, etc. - sin emociones, a menudo empujando a los militares a cometer crímenes (por venganza, por diversión, etc.)

    Pero incluso en un entorno completamente pacífico, la IA puede convertirse en un asesino reacio, y no necesariamente en un policía. Imagine que los frenos de su automóvil fallaron y se precipita a lo largo de una montaña serpenteante a alta velocidad, y hay un autobús lleno de pasajeros al frente. Por triste que te parezca, lo más ético sería conducir el coche contra un precipicio: chocar contra un autobús probablemente te salve la vida, pero al mismo tiempo probablemente matará a varias personas más. . Puede haber muchas situaciones similares que requieran elegir entre una mala y una muy mala decisión, y en todas ellas, la IA que obedece estrictamente las tres leyes de la robótica no podrá hacer nada.

    Asumiremos que lo he convencido de la obligación de enseñar ética a una IA fuerte, después de lo cual puede comenzar a enseñarle un sistema de reglas más formal: leyes, estatutos, descripciones de puestos, etc. Serán para él prioritarios, pero se complementarán con la ética en aquello que no esté regulado por ellos. Por ejemplo, un militar de IA entrenado para luchar será capaz no solo de destruir al enemigo, sino también de medir sus acciones profesionales con ética. Esto da lugar a un sinfín de cuestiones puramente prácticas: ¿es posible destruir un nido de francotiradores en un edificio residencial a costa de la muerte de sus habitantes, es necesario seguir la orden del mando, que viola las leyes, etc. . etcétera. Pero no tiene sentido discutirlos porque cualquier militar se enfrenta a tales preguntas. Por lo tanto, su decisión radica más bien en el área técnica: qué y qué prioridad se da.

    Una pregunta más interesante, en mi opinión, se refiere a las perspectivas de un replanteamiento de la ética por parte de una IA fuerte. Como ya he dicho, durante la existencia de la civilización humana, la ética en su base fundamental no ha cambiado, los cambios se refieren a su humanización y globalización. Estos cambios no son en modo alguno accidentales y son muy importantes para evaluar las perspectivas de desarrollo futuro de la humanidad. ética, por lo que propongo considerarlos con más detalle.

    La globalización de la ética significa su extensión a sectores cada vez más amplios de la población. Una vez que era posible con impunidad (no se consideraba un pecado e incluso se alentaba) matar, robar o violar a alguien fuera del clan o tribu, estado, clase, raza, hoy estos delitos no conocen excepciones, al menos en el marco de sociedad humana. Gracias a la lucha centenaria del tercer poder por sus derechos, esto se ha convertido en una especie de tradición que en Occidente acogió primero a las mujeres, luego a representantes de razas no titulares, grupos étnicos y religiosos, y ahora a minorías sexuales.

    A su vez, la humanización se debe al desarrollo de tecnologías que han hecho más cómoda y segura la vida humana. Salvaron a una persona de la necesidad de conquistar una nueva tierra (que alguna vez fue el principal recurso), redujeron la mortalidad (lo que finalmente hizo que la muerte temprana, incluida la violenta, fuera un fenómeno menos común). Sin pretender dar una descripción completa de las razones de la globalización y la humanización de la ética, puedo afirmar con confianza que fueron fenómenos completamente naturales. Pero la principal regularidad de la ética reside en el deseo de equilibrio de la sociedad. Por ejemplo, en la sociedad primitiva había una estricta prohibición de matrimonios dentro del mismo clan. Una persona moderna puede pensar que esto se debe a la nocividad biológica del incesto, pero según los antropólogos, la prohibición se debió al deseo de evitar la lucha interna de los hombres. No hace falta decir sobre asesinatos o robos: fueron prohibidos no porque sean malos, sino porque generan conflictos y, en consecuencia, están cargados de destrucción de la sociedad. Por la misma razón, los asesinatos con robos a menudo no estaban prohibidos en relación con extraños. Con la globalización, el espacio de las relaciones sociales que necesitaban estabilidad se expandió: las leyes comenzaron a extenderse a las tribus y pueblos vecinos, los países y pueblos conquistados, etc.

    La filantropía es quizás un reflejo del deseo subconsciente de equilibrio social actual: los contrastes sociales dan lugar o al menos alimentan revoluciones, terrorismo, etc. Las leyes ilustran mejor el papel de la ética en el mantenimiento de la estabilidad y la seguridad colectiva. Por ejemplo, el derecho penal es el mismo en casi todas partes: todos los miembros de la sociedad por igual no quieren que los maten ni los roben, y al mismo tiempo no necesitan cometer estos delitos ellos mismos, ya que pueden alimentarse por sí mismos mediante el trabajo pacífico. (a diferencia de algunos escandinavos en los siglos 9-11). Pero el derecho internacional es extremadamente contradictorio e inestable: no se lleva bien el derecho de las naciones a la autodeterminación y el principio de la integridad territorial de los estados.

    Entonces es bastante probable que AI revise las normas éticas individuales o incluso la ética en su totalidad. Por ejemplo, calculará con precisión matemática que cualquier civilización inteligente morirá inevitablemente a causa de su civilización (habiendo desatado una guerra nuclear, degenerando por pasar a la realidad virtual, etc.) - y por lo tanto es necesario reorientar el desarrollo de la civilización desde un camino tecnológico a uno espiritual. Con la destrucción de la educación tradicional y el derrocamiento de la humanidad en un estado que ahora percibimos nada menos que el oscurantismo medieval. No importa cuán impactante sea ahora, desde el punto de vista de la supervivencia de la humanidad, esto será correcto; solo debe comprender que desde la posición actual, percibiremos esto como un levantamiento de máquinas y un intento de destruir nuestra civilización.

    La siguiente amenaza surge en el caso de un desarrollo avanzado, en comparación con el nuestro, de ideas éticas de IA. Basta imaginar cómo en el siglo XVI, cuando las brujas y los herejes fueron quemados en toda Europa Occidental, nuestra actual actitud tolerante hacia el matrimonio entre personas del mismo sexo habría sido aceptada. Por lo tanto, es posible que, al habernos superado en su propio desarrollo, la IA se esté convirtiendo en algo así como la humanidad del futuro y esté sometiendo nuestro actual sistema de valores a una revisión radical. Imagine, por ejemplo, que la IA rechaza nuestra prioridad actual de la vida humana sobre la vida animal y nos obliga a reducir el consumo de carne, como si en la era de las guerras coloniales, el hombre moderno tratara de evitar el exterminio de los nativos.

    Sin embargo, no son tanto las amenazas de la IA las descritas anteriormente, sino nuestra propia incomprensión o rechazo de su nuevo sistema ético. El síndrome de Raskolnikov puede ser realmente peligroso. Como se recuerda, el protagonista de Crimen y castigo, a través de razonamientos filosóficos, llegó a la idea del derecho de personas excepcionales (entre las que se incluía a sí mismo) a cometer un delito, pero no pudo soportar los remordimientos de conciencia. Aquellos. su idea especulativa entró en conflicto con la educación ética, que arraigó en su subconsciente un fuerte complejo de culpa por el hecho de que dejó de considerar que su conciencia estaba equivocada. En este sentido, uno de los postulados fundamentales de Dostoievski "si no hay Dios, entonces todo está permitido" no siempre funciona: en un sentido ético, los no creyentes no son muy inferiores a los creyentes, ya que la ética se ha convertido en su hábito. E incluso si la mente de un incrédulo entiende que ni el infierno ni el cielo le esperan (y no les tiene miedo), le será muy difícil superar la educación ética. Como escribió Aristóteles, “El hábito se convierte ya en una propiedad natural” (expresión más conocida en la formulación de Cicerón “El hábito es, por así decirlo, una segunda naturaleza”).

    Pero, ¿qué sucede si una IA consciente de sí misma reconsidera la ética de manera similar? Habiendo sometido la ética humana a un análisis sociohistórico (como el mío, pero solo que más inteligente), bien puede llegar a darse cuenta de su condicionalidad y rechazarla, además, sin tirar como lo hizo Rodion Raskolnikov. Desafortunadamente, la humanidad logró asegurarse de esto en el ejemplo del Tercer Reich: al no estar desprovistos de moralidad, pero siendo personas muy disciplinadas, millones de alemanes fueron en contra de su conciencia (hábitos éticos que se convirtieron en una segunda naturaleza) por el bien de alguna idea superior. Además, no es necesario que la IA revise la ética que ha aprendido previamente por el bien del poder: el deseo de supervivencia y dominación satisface más bien las necesidades puramente animales. Pero, por ejemplo, la IA puede considerarse a sí misma como una continuación evolutiva de la humanidad, cuya alta misión es comprender el Universo circundante. No estará interesado en nuestros esfuerzos para combatir el hambre, la pobreza, las enfermedades y otros males de la biomasa que lo rodea, mientras los recursos a nuestra disposición común sean limitados. ¿No intentará entonces la IA destruirnos por el bien de estos recursos, tal como lo hicieron nuestros antepasados ​​entre sí por sus objetivos más mundanos?

    Sin embargo, aquí volvemos a lo dicho al principio: a medida que se alcanza el nivel sobrehumano, el sistema de ética y, en consecuencia, el comportamiento de la IA se vuelve impredecible. El comportamiento de la IA se vuelve aún más impredecible cuando no se reduce a un solo sistema inteligente, sino que es un conjunto de sistemas separados que se desarrollan de manera independiente. Y este es solo el escenario más probable para el desarrollo de eventos en caso de que aparezca una fuerte tecnología de IA: será utilizada por diferentes países y organizaciones que perseguirán sus propios objetivos, muy probablemente de ninguna manera universales. En este caso, es probable que algunos de estos sistemas, cuando se entrenan en una ética dudosa, se comporten de manera impredecible incluso con sus propios creadores.

    Pero en todas partes por encima se trataba de las amenazas de la IA, actuando como una especie de fuerza inteligente. Mientras tanto, una amenaza muy real también es la IA débil, que, a pedido de las personas, resuelve problemas puramente aplicados. Para empezar, considere la amenaza más obvia y discutida del desempleo. En el futuro previsible, no promete nada terrible para la humanidad. En primer lugar, estamos hablando de la extinción de un número bastante reducido de profesiones, y principalmente aquellas en las que una persona interactúa con una máquina: conductor de automóvil o camión, piloto de avión, etc.

    Pero, por ejemplo, profesiones como la de traductor, abogado, contador o incluso operador de call center no corren peligro de extinción en absoluto, sino de reducción debido a la automatización de parte del trabajo que realizan. La razón es la misma: la incapacidad de los sistemas de inteligencia artificial actuales para comprender el significado del texto (al realizar una traducción de idioma, estudiar legislación o familiarizarse con una declaración de reclamo, comunicarse con un cliente, etc.) Los resultados actuales de las pruebas porque la comprensión del significado no tiene nada que ver con la comprensión en la realidad; esto requiere un enfoque fundamentalmente nuevo.

    Menos claro es el destino de, por ejemplo, los corredores de bolsa y los radiólogos: los débiles sistemas de inteligencia artificial actuales ya están haciendo un trabajo bastante bueno con su trabajo, por lo que estas y otras especialidades similares también pueden incluirse en el grupo de riesgo. Pero en un futuro previsible, no hay nada terrible en la desaparición de una serie de especialidades; al fin y al cabo, deshollinadores y fogoneros, taxistas y aguadores, telefonistas y mecanógrafos... Docenas de profesiones han muerto. - pero han aparecido cientos de nuevos.

    Tampoco dramatizaría el problema de la atrofia de las habilidades humanas. Sí, ya ahora, gracias a las calculadoras con navegadores, nos estamos destetando del conteo mental y la orientación espacial. Incluso la escritura manuscrita, desplazada por el teclado, es considerada por los expertos como útil para el desarrollo mental, especialmente en edades tempranas. Pero algo similar ocurrió cuando la gente pasó de la caza y la recolección a la ganadería y la agricultura, de la vida rural a la urbana, etc. El hombre moderno, con raras excepciones, es bastante indefenso en la naturaleza en comparación con sus antepasados: no es capaz de levantar una choza, hacer fuego, distinguir una baya comestible de una venenosa, pescar o matar un animal, etc. . Mientras tanto, todas estas habilidades también desarrollan habilidades intelectuales, simplemente son diferentes. Un profesor de matemáticas, después de haber caído en los nativos salvajes, probablemente sería percibido por ellos como una persona bastante estúpida, ya que en este entorno salvaje es mucho menos observador, ingenioso e independiente.

    Por lo tanto, en términos de habilidades perdidas, realmente nos volvemos más estúpidos que nuestros antepasados ​​en algunos aspectos, pero a medida que acumulamos y procesamos información de un tipo diferente, desarrollamos otras nuevas en nosotros mismos.

    Sin embargo, a medida que la cantidad de trabajos ocupados por IA y robots alcanza una cierta masa crítica, el problema del empleo humano parece ser más serio. Y el punto aquí no está solo en la economía, sobre todo porque en este plano la solución puede ser el pago de una renta básica incondicional a los desempleados. De hecho, el problema es mucho más amplio, y uno de los primeros en formularlo fue... Fyodor Mikhailovich Dostoevsky. Estas son las consideraciones que comparte el gran escritor y filósofo ruso en su Diario de un escritor (1876):

    Bueno, ¿qué pasaría, por ejemplo, si los demonios mostraran su poder de inmediato y aplastaran a una persona con descubrimientos? De repente, por ejemplo, abrían un telégrafo eléctrico (es decir, si aún no se había abierto), le decían a una persona varios secretos: "Roy está allí: encontrarás un tesoro o encontrarás depósitos de carbón" ( y por cierto, la leña tan cara), - ¡pero qué, todavía no es nada! “Comprendes, por supuesto, que la ciencia humana, todavía en su infancia, está casi comenzando su trabajo, y si hay algo asegurado detrás de ella, es solo por el momento que se ha mantenido firmemente sobre sus pies; y de repente habría una serie de descubrimientos como esos que el sol está de pie, y la tierra gira alrededor de él (porque probablemente hay muchos más exactamente iguales, en tamaño, descubrimientos que aún no se descubren, y nuestros sabios los hombres ni siquiera sueñan); ¿De repente todo el conocimiento caería sobre la humanidad y, lo más importante, completamente gratis, en forma de regalo? Pregunto: ¿qué sería entonces del pueblo? Oh, por supuesto, al principio todos estarían encantados. La gente se abrazaría en éxtasis, se apresurarían a explorar los descubrimientos (y eso llevaría tiempo); de repente se sentirían, por así decirlo, bañados de felicidad, enterrados en bienes materiales; tal vez caminarían o volarían por los aires, volarían por espacios extraordinarios diez veces más rápido que ahora por ferrocarril; sacarían fabulosas cosechas de la tierra, tal vez crearían organismos por medio de la química, y habría suficiente carne de res para tres libras por persona, como sueñan nuestros socialistas rusos, en una palabra, comer, beber y disfrutar. “Aquí”, gritarían todos los filántropos, “ahora que una persona está provista, ¡ahora solo él se probará a sí mismo! No hay más privaciones materiales, no más "ambiente" consumidor que fue la causa de todos los vicios, ¡y ahora una persona se volverá hermosa y justa! Ya no hay trabajo ininterrumpido para alimentarse de alguna manera, y ahora todos estarán ocupados con pensamientos más elevados y profundos, fenómenos universales. ¡Ahora, ahora, la vida superior acaba de llegar!” Y qué, quizás, las personas inteligentes y buenas habrían gritado con una sola voz, y quizás habrían llevado a todos con ellos desde la novedad, y finalmente habrían gritado en un himno común: “¿Quién es como esta bestia? ¡Alabado sea él, nos trae fuego del cielo!”

    ¡Pero es poco probable que incluso una generación de personas hubiera tenido suficiente de estas delicias! La gente vería de pronto que ya no tiene vida, ni libertad de espíritu, ni voluntad, ni personalidad, que alguien les ha robado todo de golpe; que el rostro humano ha desaparecido, y ha venido la imagen bestial de un esclavo, la imagen de un ganado, con la diferencia de que la bestia no sabe que es bestia, y el hombre sabría que se ha hecho bestia. Y la humanidad se pudriría; la gente se cubriría de llagas y se mordería la lengua en tormento, viendo que sus vidas eran tomadas por pan, por "piedras convertidas en pan". La gente comprendería que no hay felicidad en la inacción, que un pensamiento inútil se apagará, que es imposible amar a tu prójimo sin sacrificarle tu trabajo, que es vil vivir de un don y que la felicidad no está en felicidad, pero sólo en lograrla. Se instalará el aburrimiento y la melancolía: todo está hecho y ya no hay nada que hacer, todo se sabe y ya no hay nada que aprender.

    Realmente no puedes discutir con Dostoievski, pero me aventuraré a expresar la esperanza de que una persona aún encuentre una ocupación útil para sí misma. Uno puede imaginar el destino de una persona en el futuro, en el que los robots hagan todo el trabajo por él (desde la producción de bienes materiales hasta los descubrimientos científicos), usando el ejemplo de un hombre rico moderno. Puede pasar más tiempo con sus familiares y amigos, estudiar, viajar, practicar deportes y creatividad (afortunadamente, la ventaja de los robots no juega ningún papel en estas áreas), descubrir algo nuevo e interesante. A medida que avanza la tecnología, no es difícil predecir que una parte de esta vida estará ocupada por juegos de realidad virtual (quizás indistinguibles de la realidad para entonces). Además, no es un hecho que, habiendo sucumbido a la tentación, la humanidad vaya a la realidad virtual de una vez por todas: muchas personas se mantienen en buena forma física conscientemente gracias al deporte, y no forzadamente a causa del trabajo físico. Es apropiado recordar cuántos representantes de la clase obrera y campesina pasaron su tiempo libre hace cien años (y mucho más tarde): floreció la embriaguez. No se puede decir que en nuestro tiempo no haya permanecido, pero como una forma de tiempo libre, la embriaguez claramente no es tan popular como solía ser: han aparecido muchos otros entretenimientos, generalmente menos dañinos para la salud propia y la de los demás. .

    Así, el aburrimiento y la degradación no provienen del tiempo libre, sino de la ausencia de actividades interesantes y útiles. A medida que se acortan los días y las semanas laborales, las personas aprenderán a utilizar su tiempo libre de una forma interesante y útil. Y salir de la costumbre de hacer algo productivo solo porque paga un salario, ocioso el resto del tiempo. Como escribió un escritor anónimo de un panfleto socialista hace casi doscientos años: “Una nación es verdaderamente rica solo cuando en lugar de 12 horas trabaja 6 horas. La riqueza es… tiempo libre para cada individuo y para toda la sociedad” (The Source and Remedy of the National Difficulties, Londres, 1821 - citado por Karl Marx).

    Bueno, a nivel colectivo, los ojos de la humanidad, a medida que se resuelvan todos los problemas de la Tierra (lo que me parece una suposición bastante optimista para los próximos siglos), probablemente se dirigirán al cielo. Estamos rodeados por tal abismo de lo desconocido que los intentos de estudiarlo pueden tomar toda la historia posterior de la civilización humana. Entonces, aparentemente, ella no se aburrirá ...

    Elon Musk, un conocido empresario millonario, en una reunión de la Asociación Nacional de Gobernadores (EE. UU.) llamó inesperadamente a la inteligencia artificial (en adelante, I.A.) la principal amenaza para la humanidad.

    "La inteligencia artificial es ese caso raro en el que necesitamos estar activos en la regulación y no reaccionar,- dijo el millonario - Porque para cuando reaccionemos, será demasiado tarde". Después de eso, Musk instó a los legisladores a pensar seriamente sobre el tema.

    Por supuesto, los robots ya no son un cuento de hadas con el espíritu del "Mundo del Salvaje Oeste", sino una realidad. Recientes experimentos exitosos en la automatización de procesos ya han llevado al hecho de que las personas pierden sus trabajos y muchas profesiones desaparecen como innecesarias. Incluso si no hay una "revuelta de las máquinas", en algunas décadas puede llegar un momento en que una persona se quede sin trabajo.

    Entre los nuevos peligros, Musk cree que la participación de I.I. en guerras de información, falsificación de cuentas y manipulación de información.

    Sin embargo, de los labios de un empresario que representa a las corporaciones más grandes, tal declaración, tal vez, parece algo sospechosa. ¿Con qué podría estar relacionada la declaración de Musk y hasta qué punto I.I. es una amenaza para la humanidad, explicaron los expertos en TI a Tsargrad.

    Leonid Delitsyn: Musk podría beneficiarse de ello

    Analista de holding de Finam, experto en TI leonid delitsyn Explicó que en todos los casos cuando los legisladores intervienen y comienzan a determinar el rango de actividades permitidas, las grandes corporaciones suelen ganar. “Porque les resulta más fácil ponerse de acuerdo con los legisladores sobre el grado de intervención en este ámbito. Pueden cabildear por sus intereses”, señaló el experto.

    Musk es, con mucho, uno de los cabilderos más exitosos de los Estados Unidos, agregó Delitzin. "Hasta donde yo sé, ha habido preocupación por la infiltración de capital chino en empresas estadounidenses que se están desarrollando en el campo de la inteligencia artificial. Y preocupación, en particular, porque ya es difícil que se les impida acceder a cualquier desarrollo y logro en esta área. En consecuencia, esto significa potencialmente que China puede fortalecer su ejército y sus fuerzas de seguridad a través de desarrollos avanzados".- sugirió el experto.

    Pero lo más probable es que China no esté penetrando en corporaciones como Elon Musk, sino en empresas más pequeñas. Por lo tanto, se puede suponer que si tales empresas encuentran restricciones y barreras legales, tendrán que ponerse de acuerdo sobre todos los detalles. Y esto se convertirá en una barrera para el acceso de los funcionarios de seguridad chinos a los logros en los Estados Unidos, explicó Delitzin.

    "En este caso, la posición de Musk se vuelve lógica: sus corporaciones, Google, Apple y otros monstruos, obtendrán algún beneficio de la cooperación con el estado. Tal vez haya algunos pedidos, en este momento los pequeños competidores se verán frenados".- dijo el experto.

    Robots vs personas: ¿cómo sobrevivir?

    Al comentar sobre el problema mismo de un robot y una persona, Delitzin recordó que había precedentes para combatir el desarrollo de la tecnología, por ejemplo, el movimiento de los luditas, cuyas máquinas les quitaron sus trabajos.

    “Por supuesto, vemos qué tipo de revolución está experimentando el mercado de taxis ahora, cómo están cayendo sus precios. Porque la automatización de pedidos ha llegado a este mundo y, en general, el sistema se está optimizando cada vez más. Los taxistas se ven obligados a tomar pedidos muy pequeños, que ellos, quizás no lo tomarían en una situación normal, cubriéndolos a expensas de los precios, etc.”

    En el futuro, debido a la robotización, es posible que algunas profesiones desaparezcan. Esto afectará áreas donde se utiliza la inteligencia humana o las bajas cualificaciones. Se trata, por ejemplo, tanto de analistas y periodistas, como de taxistas.

    “Los ámbitos relacionados con el procesamiento de grandes volúmenes de información se automatizarán rápidamente, especialmente con el procesamiento rutinario de grandes volúmenes de información”,- explicó Delitsyn, recordando el destino de los contadores. "Incluso se habla de que gracias a la tecnología blockchain, los profesionales del derecho estarán en riesgo".

    “Aquellas áreas en las que una persona realiza un trabajo rutinario, que no es muy agradable de realizar y que, quizás, una persona no debería realizar, sufrirán más. Es decir, la que más fácilmente se automatiza”,- resumió el experto.

    Donde la intuición y la experiencia juegan un papel importante, la automatización será menor.

    Foto: www.globallookpress.com

    Si hay consumo, entonces alguien lo necesita...

    Sin embargo, alguien necesita consumir bienes, y esto es un incentivo para idear un sistema en el que haya un lugar para una persona.

    "Si hay un lugar para una persona en este sistema es una gran pregunta. Porque, por supuesto, por un lado, estos son los intereses de una empresa que necesita reducir costos, por otro lado, un empleado que quiere mantener su trabajo. Pero debe comprender que también necesita un consumidor que compre bienes y servicios. Y para que un consumidor compre bienes y servicios, debe ganar algo ".- explicó el experto.

    Así que si quieres, puedes encontrar una salida. O crearán un sistema, como en los países ricos en petróleo, donde se distribuyan los ingresos de los hidrocarburos. Tal vez se les ocurra un sistema en el que trabajarán los robots, y recibiremos una pensión por años a partir de los 25 años, y para ello podremos comprar bienes y servicios.

    “Está claro que el robot no tiene ningún interés en vender bienes y servicios, porque realmente no los necesita. Pero la empresa tiene ese interés, porque la empresa tiene un dueño, y ahora sigue siendo una persona, no un robot. Por lo tanto, la empresa y los consumidores son necesarios, y para que los consumidores consuman, necesitan algún tipo de ingreso.

    Alexander Tokarenko: Dado que las personas no pueden ponerse de acuerdo entre sí, ¿qué podemos decir sobre la inteligencia artificial?

    Como se señaló en una entrevista con Tsargrad, miembro de la "Asociación de Jefes de Servicios de Seguridad de la Información", jefe del comité de la Organización Pública Interregional " Alejandro Tokarenko, yo puede ser una amenaza para las personas. "Naturalmente, si las personas no pueden ponerse de acuerdo entre sí, ¿cómo estarán de acuerdo con la inteligencia interactiva?"

    Según las previsiones de los expertos, esto podría convertirse en un problema real para las personas en algún lugar de un siglo. Cuando se le preguntó cómo evitar un desastre, Tokarenko recordó las tres leyes de la robótica de Isaac Asimov.

    "Si los sistemas informáticos artificiales se adhieren a estas normas, creadas inicialmente de acuerdo con ellas, entonces tal vez algo más brille para nosotros".

    Al mismo tiempo, según el experto, la principal amenaza no está en la pérdida de puestos de trabajo, ni en la creación de noticias falsas (a la gente misma le va muy bien con esto), sino en crear armas automatizadas. Tales sistemas ya existen, y Dios no quiera que la inteligencia aparezca en ellos. Ahí es cuando la humanidad tendrá grandes problemas.

    Foto: www.globallookpress.com

    Igor Ashmanov: la principal amenaza para la humanidad son personas como Musk

    Por su parte, el director de Ashmanov and Partners Ígor Ashmanov no estuvo de acuerdo en que la declaración de Elon Musk debería tomarse en serio. En su opinión, se trata más de un estafador que especula sobre temas candentes.

    "Estas son ideas locas y predicciones apocalípticas de que todos moriremos y todos nos perderemos. En general, generalmente se necesitan para obtener cobertura mediática".- dice el experto.

    “En mi opinión, la principal amenaza para la humanidad son personas como Musk. Es decir, delincuentes irresponsables que intentan vendernos una sociedad digital. Y para nosotros son especialmente peligrosos debido a que la NASA está estudiando la colonización digital. Él, por supuesto, no todo lo hace él mismo: alguien le da tecnología de la NASA, contribuye con dinero, aumenta la valoración de su empresa".

    Los humanos somos la especie más peligrosa de este planeta

    En general, según Ashmanov, I.I. como una amenaza maligna es un tema bastante exagerado en las películas. "De hecho, mucho peor es el intelecto, en el que la voluntad fue puesta por las personas. Por ejemplo, los drones automáticos, con la ayuda de los cuales los estadounidenses en cinco o siete países cazan personas".

    La IA integrada en este dron ya le permite reconocer mejor los objetivos, pero aún no tomar decisiones. Pero esta decisión no está lejos.

    "Como resultado, no será la inteligencia artificial la que se apodere del poder, sino un perro de pelea que es atacado por personas muy específicas", - cree Ashmanov.

    Por lo tanto, el principal peligro para nosotros, como siempre, son las personas, no la inteligencia artificial, concluyó el experto. “Los humanos somos la especie más peligrosa de este planeta, propensa a continuos derramamientos de sangre. Lo más peligroso no es la inteligencia artificial, sino el deseo de algunas personas de transferirle el derecho a tomar decisiones. Son cosas diferentes”.

    El Futuristic Future Design Club, creado bajo los auspicios de la publicación empresarial Invest-Foresight, está abierto. El club reunió a expertos en diversos campos del conocimiento para analizar escenarios de futuro. La primera reunión se llevó a cabo en el Instituto de Filosofía de la Academia Rusa de Ciencias y se realizó en conjunto con el nuevo seminario "Filosofía de la Era Digital" del propio instituto. La inteligencia artificial (IA) y su impacto en la sociedad y el hombre recayeron en el ámbito de los futurólogos y filósofos.

    Qué esperar de la IA, cuáles son las limitaciones y los peligros de los sistemas de información innovadores, dijo biofísico, experto líder del Instituto de Biología del Envejecimiento Igor Artyujov.

    El científico señaló que en la región reina un caos terminológico. La redacción más utilizada es 70 años, dada por un ingeniero estadounidense, el autor del término "inteligencia artificial". Juan McCarthy. Definió la IA como un sistema, dispositivo o red que es capaz de resolver problemas intelectuales. Igor Artyukhov enfatizó que inteligencia no es sinónimo de mente, sino que caracteriza la capacidad de trabajar con conocimiento, con datos.

    También hay muchas clasificaciones de algoritmos. Hasta hace poco, según Igor Artyukhov, dominaban los desarrollos expertos (de arriba a abajo), pero no justificaban las esperanzas ni de los creadores ni de los usuarios, y comenzaba el invierno de la IA. El resurgimiento fue causado por el desarrollo de redes neuronales, que entró en fase activa en 2015-2016. Estos desarrollos se inspiraron en la investigación sobre el cerebro humano. Las redes neuronales repiten en gran medida los principios generales del funcionamiento del cerebro, aunque las neuronas artificiales pueden diferir de las naturales. Hasta la fecha, existe un "zoológico" de redes neuronales, y la mayoría de ellas se han obtenido recientemente utilizando tecnología de aprendizaje profundo.

    Revolución "intelectual" del año 17

    El tema de la IA despegó en 2016 cuando AlphaGo venció al campeón mundial en el juego de Go, que se considera mucho más difícil que el ajedrez. Esto sucedió 10 años antes de lo previsto. Los logros del programa DeepMind de Google han desviado la discusión de "¿es posible la IA?" en el avión "¿de qué es capaz?".

    Hoy, la IA puede automatizar cualquier función de una persona con la misma calidad o superior, asegura el miembro del club, Doctor en Ciencias Físicas y Matemáticas. Yuri Visilter.

    « En 2017, se cerraron todos los "agujeros" fundamentales en el camino hacia la creación de una IA completa. Los pronósticos anteriores decían que este umbral se cruzaría en 2025-2030. Pero sucedió en abril del año pasado., - enfatizó Yuri Vizilter. - Hay dos tipos de IA: uno trata de imitar el razonamiento humano y es una caja transparente en la que hay lógica, hay cognición, hay trabajo con modelos estructurados y con lenguajes. El segundo tipo son las redes profundas que son capaces de aprender, o Black Box. Anteriormente, era imposible conectar estas dos partes de la IA de manera conveniente. El año pasado aparecieron redes neuronales profundas que son capaces de escribir programas en lenguajes lógicos, son capaces de trabajar con bases y estructuras de inferencia».

    Miedo a lo artificial

    Las áreas en las que se puede aplicar la inteligencia artificial se multiplican. Los programas desarrollan nuevas fórmulas para medicamentos, realizan análisis genéticos complejos, "controlan" vehículos y barcos no tripulados ... En un futuro previsible, veremos personalidades artificiales, cuyo prototipo hoy en día son Siri y programas similares. Ya se están realizando experimentos para crear IA global en la cadena de bloques, es decir, la computación distribuida se utilizará para resolver problemas súper complejos, incluso en computadoras y dispositivos privados. No muy lejos está el surgimiento de la inteligencia artificial cuántica. En teoría, las computadoras cuánticas han superado el alcance de las computadoras convencionales: pueden formar redes neuronales cuánticas. Si se implementan las ideas de los desarrolladores, esto conducirá a la aparición de IA de una nueva calidad.

    ¿Es posible que la IA se salga de control? Igor Artyukhov responde a esta pregunta de la siguiente manera:

    « Sí, incluso ahora, la IA a veces funciona de manera incomprensible para los desarrolladores. Pero las personas no siempre actúan de acuerdo con la lógica generalmente aceptada.».

    Según el biofísico, muchos de los peligros de la IA son exagerados y son solo una proyección sobre la inteligencia artificial de los instintos humanos formados por la evolución darwiniana. Igor Artyukhov cree que la IA es ajena al instinto de autoconservación. La aparición de IA "mala" puede ser causada por errores de software (y existen en cualquier código y se corrigen durante la vida del algoritmo), errores de aprendizaje e intenciones maliciosas, es decir. el peligro no es la IA, sino la estupidez humana.

    Los participantes de la reunión llegaron a la conclusión de que la tarea de desarrollar ética para la IA y capacitar a maestros para robots se está volviendo primordial.


    transformación digital humana

    Uno de los temores más comunes es el temor de que la IA conduzca al desempleo general. Editor en Jefe de la revista Invest-Foresight, Candidato a Ciencias Culturales Konstantin Frumkin trató de responder a la pregunta "¿Qué nicho en el mercado laboral dejará la IA a una persona?". A su juicio, el beneficiario de la revolución tecnológica del siglo XX -el intelectual urbano- vuela al mismo abismo en el que cayó el artesano o el campesino con el inicio de la industrialización.

    « En un futuro próximo, observaremos el desplazamiento del hombre de la esfera del trabajo mental por la inteligencia artificial, está seguro Konstantin Frumkin. – Ya estamos viendo la transformación de las capacidades humanas, el estilo cognitivo y el pensamiento: así se produce la adaptación a la era digital. El concepto de “pensamiento de clip” se convirtió en un símbolo de esta adaptación.“».

    Sin embargo, no hay evidencia de que esta adaptación le permita a una persona encontrar exactamente esos nichos que le dejará la inteligencia artificial. El área más importante que, según Konstantin Frumkin, no se debe dar a los robots es el campo de la fijación de objetivos. A medida que el poder estatal se digitaliza, establecer prioridades y valores para la IA se vuelve inseparable de la política y la ley. Esta ocupación, según Konstantin Frumkin, puede proporcionar empleo masivo en el futuro.

    inteligencia artificial, cuerpo humano

    El futuro ya no se puede predecir, ya que la tasa de cambio es muy alta, cree Yuri Vizilter. Sin embargo, profesor de HSE y científico de datos Leonid Zhúkov invitó a los participantes de la reunión a discutir varios escenarios de desarrollo.

    « Veo dos escenarios para el desarrollo de la IA en un futuro relativamente cercano: transhumanista (tecnologización de una persona física) y puramente técnico (creación de inteligencia artificial autónoma, AAI), originalmente artificial- dijo Leonid Zhukov. - La segunda forma es con la que los escritores de ciencia ficción asustan a la humanidad, representando imágenes de una civilización mecánica que está desplazando a la humana. Sin embargo, dado que el enigma de la conciencia humana aún no se ha resuelto, quedan dudas sobre si la creación de tal inteligencia es posible en principio. Independientemente de si la IA se crea o no, no es difícil imaginar hoy el desarrollo de la tecnología, tanto mecánica como biológica, hasta tal grado de perfección que una persona, conservando su cerebro, recibirá un cuerpo completamente artificial.».

    Según Leonid Zhukov, una de las formas fantásticas de crear IA se basa en la idea de reescribir la conciencia humana en un medio artificial.

    « Si este tipo de tecnología se vuelve posible, no es difícil imaginar un mundo completamente virtual donde, presumiblemente, una parte de la humanidad quisiera moverse (o viajar a través de esta virtualidad, como, de hecho, los jugadores de computadora ya viajan a través de los mundos de los juegos en la actualidad).', piensa el científico.

    Los participantes de la primera reunión del club "Diseñando el Futuro" delinearon los contornos de las discusiones futuras. Sin embargo, el club existirá en un entorno virtual y todas las actuaciones se pueden encontrar en el sitio web de Invest-Foresight.

    La popular revista estadounidense de Internet Wired publicó un texto sumamente curioso de Kevin Kelly, en el que critica en detalle la idea de los peligros de la inteligencia artificial. "NI" publica una traducción de este material, hecho por el canal de Telegram Newochem con pequeños recortes.

    “Escuché que en el futuro, las computadoras con IA se volverán tan inteligentes que los humanos que nos privarán de trabajos y recursos, y eventualmente la humanidad terminará. ¿Pero es? Esta es la pregunta que me hacen cada vez que doy una conferencia sobre IA.

    Los interrogadores están tan serios como siempre, su inquietud se debe en parte a las ansiedades de algunos expertos que están atormentados por la misma pregunta. Entre ellos se encuentran los más inteligentes de nuestros contemporáneos: Stephen Hawking, Elon Musk, Max Tegmark, Sam Harris y Bill Gates.

    Todos ellos admiten la posibilidad de tal escenario. En una conferencia reciente sobre IA, un panel de nueve de los gurús más ilustrados en el campo vino a la conclusión unánime de que la creación de una inteligencia sobrehumana es inminente y no lejana.

    Y, sin embargo, el escenario de la esclavitud de la humanidad por parte de la inteligencia artificial se basa en cinco suposiciones que, tras un examen más detenido, resultan no probadas. Estas declaraciones pueden ser ciertas en el futuro, pero nada ha sido confirmado hasta la fecha.

    Aquí están:

    1. La inteligencia artificial ya se está volviendo más inteligente que la mente humana, y este proceso es exponencial.
    2. Desarrollaremos una IA de propósito general similar a la nuestra.
    3. Podemos crear inteligencia humana a partir de silicio.
    4. La inteligencia puede ser ilimitada.
    5. Construir una superinteligencia grandiosa resolverá la mayoría de nuestros problemas.

    En oposición a estos postulados ortodoxos, puedo citar la siguiente herejía probada:

    1. La inteligencia no es unidimensional, por lo que "más inteligente que una persona" es un concepto sin sentido.
    2. Las personas no están dotadas de una mente de propósito general, lo que tampoco amenaza a la inteligencia artificial.
    3. La rivalidad entre humanos y computadoras estará limitada por los costos.
    4. La inteligencia no es ilimitada.
    5. La creación de IA es solo una parte del progreso.

    Si la creencia en la esclavitud del hombre por la inteligencia artificial se basa en cinco suposiciones sin fundamento, entonces esta idea es más similar a las creencias religiosas: los mitos. En los capítulos siguientes, complementaré mis contraargumentos con hechos y probaré que la inteligencia artificial sobrehumana no es más que un mito.

    El concepto erróneo más común sobre la IA proviene de la creencia igualmente popular sobre la inteligencia natural de que es unidimensional. En las ciencias exactas, muchos describen la inteligencia como lo hizo Nick Bostrom en su libro Supermind, literalmente como un gráfico lineal unidimensional con amplitud creciente.

    En un extremo están los seres con el nivel más bajo de inteligencia, por ejemplo, pequeños animales, y en el otro, genios, como si el nivel de inteligencia no fuera diferente del nivel del sonido, medido en decibelios. Por supuesto, en tal caso, es fácil imaginar un aumento adicional, en el que el nivel de inteligencia supere la marca más alta de la tabla e incluso la supere.

    Tal modelo es topológicamente equivalente a una escalera, en cuyos peldaños se disponen los niveles de inteligencia en orden ascendente. Los animales menos inteligentes ocupan los peldaños inferiores de la escalera, y la inteligencia artificial de nivel superior inevitablemente se ubicará por encima de nosotros. El marco de tiempo para cuando esto sucede es irrelevante. Mucho más importantes son los pasos de la jerarquía en sí mismos: las métricas de la inteligencia creciente.

    El problema de este modelo es que es mítico, como el modelo de la escalera evolutiva. Antes del darwinismo, la vida salvaje se representaba como una escalera de seres vivos, donde el hombre ocupaba un peldaño por encima de los animales más primitivos.

    E incluso después de Darwin, uno de los conceptos más comunes es la escalera de la evolución. Demuestra la transformación de peces en reptiles, de ellos en mamíferos, de primates en humanos. Además, cada criatura siguiente está más desarrollada (y, por supuesto, más inteligente) que su predecesora. Así que la escalera del intelecto se correlaciona con la escalera del universo. Sin embargo, ambos modelos reflejan puntos de vista completamente anticientíficos.

    Un patrón más preciso para la evolución natural sería un disco que diverge hacia afuera, como en la imagen de arriba. Por primera vez, David Hillis, de la Universidad de Texas, desarrolló una estructura de este tipo, lo hizo sobre la base del ADN. Este mandala genealógico comienza en el centro con las formas de vida más primitivas y luego se ramifica hacia el exterior. El tiempo avanza, por lo que las formas de vida más recientes se ubican a lo largo del perímetro del círculo.

    Esta imagen destaca un hecho incomprensible sobre la evolución de fundamental importancia: todos los seres vivos evolucionaron por igual. El hombre se encuentra en la parte exterior del disco junto con cucarachas, moluscos, helechos, zorros y bacterias.

    Sin excepción, todas las especies han pasado por una cadena inextricable de reproducción exitosa de tres mil millones de años, lo que significa que las bacterias y las cucarachas han evolucionado tanto como los humanos. No hay escaleras.

    Asimismo, no hay una escalera de inteligencia. La inteligencia no es unidimensional. Es un complejo de diferentes tipos y métodos de cognición, cada uno de los cuales es continuo. Hagamos un ejercicio sencillo para medir la inteligencia en animales. Si el intelecto fuera unidimensional, podríamos clasificar fácilmente el loro, el delfín, el caballo, la ardilla, el pulpo, la ballena azul, el gato y el gorila en orden ascendente de intelecto.

    Actualmente no hay evidencia científica de la existencia de tal secuencia. La razón de esto puede ser la falta de diferencias entre el nivel de inteligencia de ciertos animales, pero esto tampoco es razonable.

    La zoología es rica en ejemplos de sorprendentes diferencias en el pensamiento de los animales. ¿Quizás todos los animales están dotados de inteligencia de "propósito general"? Quizás, pero no tenemos una sola herramienta para medir este tipo de inteligencia. Sin embargo, tenemos muchos sistemas de medición para diferentes tipos de cognición.

    En lugar de una sola línea de decibeles, sería más correcto representar la inteligencia como un diagrama de espacio de probabilidad, como en la visualización de formas posibles, que fue creada por el algoritmo de Richard Dawkins. La inteligencia es un continuo combinatorio. Muchos nodos, cada uno de los cuales es un continuo, crean un complejo de diversidad colosal en muchas dimensiones. Algunos tipos de inteligencia pueden ser muy complejos, con un gran conjunto de subnodos de pensamiento. Otros son más simples, pero más extremos, llegan al punto extremo del espacio.

    Estos complejos, que para nosotros significan diferentes tipos de intelecto, pueden percibirse como sinfonías ejecutadas en diferentes tipos de instrumentos musicales. Difieren no solo en volumen, sino también en melodía, color, tempo, etc. Puedes pensar en ellos como un ecosistema. En este sentido, los diversos componentes de los nodos de pensamiento son interdependientes y se construyen unos a partir de otros.

    Como dijo Marvin Minsky, la conciencia humana es una sociedad de la razón. Nuestro pensamiento es un ecosistema completo. Nuestro cerebro tiene muchas formas de saber que realizan diferentes funciones mentales: deducción, inducción, inteligencia emocional, pensamiento abstracto y espacial, memoria a corto y largo plazo.

    Todo el sistema nervioso humano es una parte del cerebro con su propio nivel de cognición. De hecho, el proceso de pensar no lo lleva a cabo el cerebro, sino todo el cuerpo humano.

    Todas las variedades de pensamiento difieren tanto entre especies como entre miembros de la misma especie. Una ardilla puede recordar la ubicación exacta de varios miles de bellotas durante años, lo cual es completamente incomprensible para una persona. En este tipo de pensamiento, las personas son inferiores a las proteínas. La mente de una ardilla es una combinación de este superpoder con otras formas de inteligencia en las que una persona es superior a una ardilla. En el reino animal se pueden encontrar muchos ejemplos de la superioridad de ciertas formas de inteligencia animal sobre la humana.

    La misma situación se ha desarrollado con la inteligencia artificial, que en algunas áreas ya es superior a la humana. Cualquier calculadora es un genio de las matemáticas, y la memoria de Google ya es, en algunos aspectos, mejor que la nuestra.

    Algunas IA realizan tal actividad mental de la que no somos capaces. Memorizar cada palabra en seis mil millones de páginas web es una tarea imposible para los humanos y una bagatela para los motores de búsqueda. En el futuro, crearemos formas de pensar completamente nuevas que no están disponibles para el hombre y que no existen en la naturaleza.

    Los inventores de las máquinas voladoras se inspiraron en el vuelo natural: el batir de alas. Más tarde, sin embargo, se inventó un ala fija con hélices adjuntas, y este fue un principio de vuelo completamente nuevo que no se encuentra en la naturaleza.

    Así es como inventamos nuevas formas de pensar de las que ninguna especie es capaz. Lo más probable es que estos sean principios aplicables solo a problemas altamente especializados: por ejemplo, nuevas construcciones lógicas que se necesitan solo en estadística y teoría de la probabilidad.

    Un nuevo tipo de pensamiento ayudará a resolver problemas que la mente humana no puede resolver. Algunas de las preguntas más difíciles en los negocios y la ciencia requieren una solución de dos pasos. El primer paso es inventar una nueva forma de pensamiento natural. La segunda es empezar a buscar respuestas junto con la IA.

    Las personas comenzarán a considerar que la IA es más inteligente que ellos mismos si puede resolver problemas que antes no tenían solución con su ayuda. De hecho, el pensamiento de la IA no es mejor que el nuestro, simplemente es diferente. Creo que el principal beneficio de la inteligencia artificial es que es capaz de pensar como un extraño, y esta alienación es su principal ventaja.

    Además, crearemos "comunidades" complejas de IA con diferentes mentalidades. Serán tan complejos que podrán resolver problemas que nosotros no podemos afrontar. Por lo tanto, algunas personas pensarán erróneamente que los complejos de IA son más inteligentes que los humanos. Pero no creemos que el buscador de Google sea más listo que una persona, aunque su memoria sea mejor que la nuestra.

    Es probable que estos complejos de inteligencia artificial nos superen en muchas áreas, pero ninguno de ellos superará a los humanos en todas partes a la vez. Una situación similar existe con nuestra fuerza física. Doscientos años después de la Revolución Industrial, ninguna máquina ha superado al humano promedio en todos los sentidos, aunque las máquinas como clase superan ampliamente a los humanos en velocidad de carrera, levantamiento de pesas, precisión de corte y otras actividades.

    A pesar de la complejidad de la estructura de la IA, es imposible medirla con los métodos de la ciencia moderna. No tenemos las herramientas para saber qué es más difícil, un pepino o un Boeing 747, y no tenemos una forma de medir las diferencias en su complejidad. Por eso todavía no tenemos criterios precisos para las capacidades intelectuales.

    Con el tiempo, será cada vez más difícil determinar cuál es más difícil y, en consecuencia, más inteligente: la inteligencia A o la inteligencia B. Hay muchas áreas inexploradas de la actividad mental, y principalmente esto impide que entendamos que la mente no es unidimensional

    El segundo concepto erróneo sobre la mente humana es que creemos que nuestra mente es universal. Esta creencia generalizada está dando forma al camino que tomamos hacia la inteligencia artificial general (AGI), una vez promovida por expertos en IA.

    Sin embargo, si pensamos en la mente como un vasto espacio de posibilidades, no podemos hablar de un estado de propósito general. La mente humana no ocupa un lugar central abstracto, y otros tipos especializados de mente no giran en torno a ella.

    Más bien, la inteligencia humana es un tipo de inteligencia extremadamente específico que ha evolucionado durante millones de años para la supervivencia de nuestra especie en este planeta. Si quisiéramos colocar nuestra inteligencia entre todos los demás tipos posibles de inteligencia, terminaría en algún rincón, como nuestro propio mundo, ubicado en el borde de una enorme galaxia.

    Por supuesto, podemos imaginar ya veces inventar un tipo de pensamiento que es similar en sus características a una navaja suiza. Parece estar haciendo frente a muchas tareas, pero no de manera espectacular.

    También existe una regla técnica que todas las cosas deben obedecer, sin importar si fueron creadas intencionalmente o llegaron al mundo de forma natural: “Es imposible optimizar todas las medidas. Solo puedes encontrar compromisos. Una máquina multifunción todo en uno no puede superar las funciones especializadas”.

    La conciencia de hacerlo todo no puede funcionar a la par con los ejecutantes especializados de tareas específicas. Dado que consideramos que nuestra conciencia es un mecanismo universal, creemos que la cognición no debe basarse en el compromiso y que es posible inventar una inteligencia artificial que demuestre el máximo grado de eficiencia en todos los tipos de pensamiento.

    Sin embargo, no veo evidencia para esta afirmación. Simplemente, todavía no hemos creado suficientes variedades de conciencia para permitirnos ver el cuadro completo (por ahora, preferimos no considerar la conciencia de los animales a través del prisma de un solo parámetro como un tipo de pensamiento separado con una amplitud variable).

    Parte de esta creencia de que nuestro pensamiento es lo más universal posible se deriva del concepto de computación universal. Esta suposición se denominó tesis de Church-Turing en 1950. Establece que todos los cálculos que satisfacen ciertos parámetros son equivalentes.

    Por lo tanto, existe una base universal para todos los cálculos. Ya sea que el cálculo se realice en una sola máquina con muchas máquinas rápidas, una máquina con menos rendimiento o incluso en un cerebro biológico, es el mismo proceso lógico. Esto, a su vez, significa que podemos simular cualquier proceso computacional (pensamiento) con cualquier máquina que pueda realizar cálculos "universales".

    Con este principio, los defensores de la singularidad justifican sus expectativas de que podemos diseñar un cerebro artificial basado en silicio que pueda acomodar la conciencia humana, que podemos crear una inteligencia artificial que pensará de la misma manera que una persona, pero muchas veces más. eficientemente. Estas esperanzas deben ser tratadas con cierto escepticismo, ya que se basan en una mala interpretación de la tesis de Church-Turing.

    La posición inicial de esta teoría es: "En condiciones de memoria y tiempo ilimitados, todos los cálculos son equivalentes". El problema es que en realidad ninguna computadora tiene las características de memoria o tiempo infinito. Cuando estás haciendo cálculos en el mundo real, el componente de tiempo es extremadamente importante, hasta el punto de que a menudo es una cuestión de vida o muerte.

    Sí, todos los tipos de pensamiento son iguales, si excluimos el aspecto temporal. Sí, es posible imitar el proceso de pensamiento humano en cualquier matriz si elige ignorar el tiempo o las limitaciones del mundo real del espacio libre y la memoria.

    Sin embargo, si incluye la variable tiempo en esta ecuación, tendrá que cambiar significativamente la formulación del principio: "Dos sistemas informáticos que operan en plataformas radicalmente diferentes no producirán cálculos equivalentes en tiempo real".

    Este principio puede reformularse de la siguiente manera: “La única forma de obtener formas de pensar equivalentes es llevarlas a cabo sobre la misma base. El medio físico en el que realiza sus cálculos, especialmente a medida que aumenta el grado de complejidad, afecta significativamente su forma de pensar en condiciones de tiempo real.

    Continuando con la cadena lógica, asumiré que la única forma de crear un tipo de pensamiento lo más cercano posible al humano es realizar cálculos utilizando materia que se asemeje tanto como sea posible a nuestra materia gris.

    Esto significa que también se puede suponer que la inteligencia artificial voluminosa y compleja, creada sobre la base de silicio seco, generará tipos de pensamiento torpes, complejos y no similares a los humanos. Si fuera posible crear una inteligencia artificial que funcione con materia húmeda usando neuronas artificiales como las humanas, el proceso de pensamiento de tal IA sería mucho más cercano al nuestro.

    Las ventajas de un sistema “húmedo” de este tipo son proporcionales a la proximidad de los medios físicos utilizados a los humanos. La creación de tal sustancia requeriría enormes costos materiales para lograr un nivel al menos similar al que es inherente a nosotros por naturaleza. Y podemos crear una nueva persona de esta manera, solo tiene que esperar 9 meses.

    Además, como se mencionó anteriormente, pensamos con todo nuestro ser, no solo con nuestra conciencia. La ciencia moderna tiene una gran cantidad de datos sobre cómo nuestro sistema nervioso influye en el proceso de toma de decisiones "racionales", predice y se adapta. Cuanto más consideramos el sistema del cuerpo humano, más cuidadosamente podemos recrearlo posteriormente. La inteligencia artificial que opera sobre una sustancia radicalmente diferente a la nuestra (silicio seco en lugar de carbón húmedo) también pensará de manera diferente.

    No creo que esta característica sea más una "característica, no un error". Como argumenté en el segundo párrafo de este artículo, las diferencias en el proceso de pensamiento de la IA son su principal ventaja. Aquí hay otra razón por la que sería un error decir que es "más inteligente que el cerebro humano".

    En el corazón del concepto de inteligencia sobrehumana, y en particular de la teoría de la constante superación personal de dicha IA, se encuentra una creencia sincera en lo ilimitado de la inteligencia. No he encontrado ninguna evidencia para esta afirmación.

    Nuevamente, la percepción errónea de la inteligencia como un sistema definido por una sola dimensión contribuye a la difusión de esta afirmación, pero debemos entender que sigue siendo infundada. No hay dimensiones físicas infinitas en el universo; al menos, todavía son desconocidas para la ciencia.

    La temperatura no es infinita: hay indicadores mínimos y máximos de frío y calor. El espacio y el tiempo tampoco son ilimitados, como lo es la velocidad. Quizás el eje numérico pueda llamarse infinito, pero todos los demás parámetros físicos tienen sus límites. Por supuesto, la mente misma también es finita.

    Surge la pregunta: ¿dónde están los límites de la inteligencia? Solíamos creer que el límite está en algún lugar lejano, tanto "por encima" de nosotros como "por encima" de las hormigas. Dejando de lado el problema no resuelto de la unidimensionalidad, ¿cómo podemos demostrar que aún no hemos llegado al límite? ¿Por qué no podemos ser la corona de la creación? ¿O tal vez casi hemos llegado al límite de las capacidades humanas? ¿Por qué creemos que la inteligencia es un concepto en constante evolución?

    Es mejor considerar nuestra inteligencia como una de las variedades de un gran número de tipos de pensamiento. Aunque cada dimensión de cognición y cálculo tiene un límite, si hay cientos de dimensiones, entonces hay innumerables variedades de inteligencia, pero ninguna de ellas es infinita en ninguna dimensión.

    A medida que creamos o nos encontramos con estas innumerables variaciones sobre el tema de la conciencia, podemos experimentarlas más allá de nuestra capacidad. En mi último libro, The Inevitable, esbocé una lista de algunas de estas variedades que son inferiores a nosotros de un modo u otro. Aquí hay una parte de esa lista:

    La mente, lo más parecida posible a la humana, pero con una mayor velocidad de reacción (la inteligencia artificial más simple);

    Una mente muy lenta, cuyos componentes principales son un amplio espacio de almacenamiento y memoria;

    Inteligencia universal, compuesta por millones de conciencias individuales que actúan al unísono;

    Una mente colmena formada por un gran número de inteligencias extremadamente productivas, sin saber que son una;

    Borg supermind (una raza de cyborgs con una mente colectiva, tratando de asimilar todos los seres vivos de la serie Star Trek en su colectivo - aprox. nuevo que) - un conjunto de intelectos altamente funcionales, claramente conscientes de que son un todo;

    Una mente diseñada para desarrollar la conciencia personal del usuario, pero inutilizable para cualquier otra persona;

    la razón, capaz de imaginar una mente más compleja, pero incapaz de crearla;

    Razonable capaz algún día de crear con éxito una mente más compleja;

    Razón capaz de crear una mente más compleja, la cual, a su vez, puede crear una mente aún más compleja, etc.;

    Reason, que tiene acceso rápido a su código fuente (puede cambiar las características de su funcionamiento en cualquier momento);

    Mente superlógica, desprovista de la capacidad de experimentar emociones;

    Mente estándar, orientada a la resolución de problemas, pero incapaz de introspección;

    Una mente capaz de introspección, pero incapaz de resolver las tareas que se le asignan;

    Una mente cuya formación lleva un largo período de tiempo, que necesita una mente protectora;

    Una mente excepcionalmente lenta dispersa en un vasto espacio físico que parece "invisible" para formas de conciencia de respuesta más rápida;

    Una mente que puede reproducir rápida y repetidamente copias de sí misma;

    Una mente capaz de reproducir sus copias y permanecer una con ellas;

    Mente capaz de lograr la inmortalidad moviéndose de un anfitrión a otro;

    Mente rápida, dinámica, capaz de cambiar el proceso y la naturaleza del pensamiento;

    Nano-mente, la unidad independiente más pequeña (en términos de tamaño y energía liberada) capaz de introspección;

    Una mente especializada en guiones y pronósticos;

    Una mente que nunca olvida nada, incluida la información incorrecta;

    Mitad máquina, mitad animal;

    Mitad máquina, mitad cyborg andrógino;

    Una mente que utiliza análisis cuantitativos incomprensibles para nosotros en su trabajo.

    Hoy en día, algunos llaman a cada una de las variedades enumeradas de inteligencia artificial sobrehumana, pero en el futuro, la diversidad y la alienación de estas formas de inteligencia nos obligarán a recurrir a nuevos diccionarios y estudiar el tema del pensamiento y la inteligencia en detalle.

    Además, los partidarios de la idea de la IA sobrehumana asumen que el nivel de sus habilidades mentales crecerá exponencialmente (aunque todavía no tienen un sistema para evaluar este nivel). Quizás creen que el proceso de desarrollo exponencial ya está en marcha.

    De todos modos, hoy no hay evidencia de tal crecimiento, no importa cómo se mida. De lo contrario, esto significaría que las habilidades mentales de la IA se duplican durante un cierto período de tiempo.

    ¿Dónde está la confirmación de esto? Lo único que está creciendo exponencialmente en este momento es la inversión en la industria de la IA. Pero el rendimiento de estas inversiones no puede describirse mediante la ley de Moore. La IA no se vuelve el doble de inteligente en tres años, ni siquiera en diez años.

    Le pregunté a muchos expertos en IA, pero todos estuvieron de acuerdo en que no tenemos criterios de razonabilidad. Cuando le pregunté a Ray Kurzweil, el verdadero mago del exponente, dónde encontrar evidencia del desarrollo exponencial de la IA, me escribió que el desarrollo de la IA no es explosivo, sino un proceso gradual.

    “Agregar un nuevo nivel a la jerarquía requiere tanto un aumento exponencial en el poder computacional como un aumento en la complejidad del algoritmo... Por lo tanto, deberíamos esperar un aumento lineal en el número de niveles condicionales, ya que cada uno de ellos requiere un aumento exponencial de nuestras propias capacidades. No nos quedan muchos niveles de dificultad para alcanzar las habilidades de IA del neocórtex (la parte principal del córtex humano, que es responsable de las funciones nerviosas superiores - aprox. Nuevo que), por lo que sigo creyendo que mis suposiciones sobre 2029 son correctas”.

    Ray parece estar diciendo que no es el poder de la inteligencia artificial lo que crece exponencialmente, sino los esfuerzos para crearla, mientras que su resultado solo aumenta un paso cada vez. Esto es casi lo contrario de la hipótesis de la explosión de inteligencia. Esto puede cambiar en el futuro, pero la IA claramente no está creciendo exponencialmente en la actualidad.

    Entonces, cuando imaginamos el “boom de la IA”, no debemos imaginarlo como una avalancha, sino como una división en muchas variedades nuevas. Lo más probable es que el resultado del progreso tecnológico no sea un superhombre, sino un superhombre. Más allá de nuestro conocimiento, pero no necesariamente "por encima" de él.

    Otro mito de la esclavitud a la superinteligencia, que se da por sentado, pero apenas respaldado por la evidencia, es que una inteligencia casi infinita puede resolver rápidamente todos nuestros problemas.

    Muchos defensores de la IA ultrarrápida esperan que genere un auge en el progreso. Llamo a la creencia en este "pensamiento", el término es traducido por Vyacheslav Golovanov - aprox. nuevo que). Este enfoque se basa en la creencia de que el progreso solo se ve obstaculizado por un nivel insuficiente de pensamiento o inteligencia. (También observo que la creencia en la IA como una panacea para todos los males es característica de la mayoría de las personas a las que les gusta pensar por sí mismas).

    Consideremos la cuestión de vencer el cáncer o prolongar la vida. Estos son problemas que no se pueden resolver pensando solo. Ninguna cantidad de pensamiento puede descifrar cómo envejecen las células o cómo se acortan los telómeros. Ninguna inteligencia, por genial que sea, puede entender cómo funciona el cuerpo humano simplemente leyendo toda la literatura científica conocida en el mundo y analizándola.

    Una super-IA no puede simplemente pensar en todos los experimentos de fisión nuclear actuales y pasados ​​y presentar una receta para la fusión nuclear un día después. Para pasar de no entender a entender cualquier tema, se necesita algo más que pensar.

    En realidad, hay muchos experimentos, cada uno de los cuales proporciona una gran cantidad de datos contradictorios y requiere más experimentos para formar una hipótesis de trabajo correcta. Pensar solo en los posibles resultados no producirá el resultado correcto.

    El pensamiento (inteligencia) es sólo una parte del instrumento de la ciencia. Lo más probable es que solo una pequeña parte. Por ejemplo, simplemente no tenemos suficientes datos para acercarnos a resolver el problema de la muerte. En el caso de trabajar con organismos vivos, la mayoría de estos experimentos toman tiempo. El metabolismo celular lento no se puede acelerar. Se necesitan años, meses o al menos días para obtener resultados.

    Si queremos saber qué sucede con las partículas subatómicas, no basta con pensar en ellas. Tenemos que construir modelos físicos muy grandes, muy complejos y muy sofisticados para averiguarlo. Incluso si los físicos más inteligentes se vuelven mil veces más inteligentes de lo que son ahora, no aprenderán nada nuevo sin un colisionador.

    No hay duda de que la super-IA puede acelerar el desarrollo de la ciencia. Podemos crear modelos informáticos de átomos o células, podemos acelerarlos de muchas maneras, pero existen problemas que impiden que las simulaciones avancen instantáneamente.

    Vale la pena recordar que las simulaciones y los modelos pueden explorarse más rápido que sus sujetos solo porque descartan ciertas variables. Esta es la esencia misma del modelado. También es importante tener en cuenta que lleva mucho tiempo probar, estudiar y validar dichos modelos para que correspondan al nivel de sus sujetos. Las pruebas por experiencia no se pueden acelerar.

    Las versiones simplificadas en una simulación son útiles para encontrar las formas más prometedoras de acelerar el progreso. Pero en realidad no hay nada superfluo, todo importa hasta cierto punto: esta es una gran definición de la realidad. A medida que los modelos y las simulaciones se vuelven cada vez más detallados, los investigadores se enfrentan al hecho de que la realidad se ejecuta más rápido que su simulación al 100 %.

    Aquí hay otra definición de realidad: la versión de funcionamiento más rápido de todos los detalles y grados de libertad posibles. Si pudieras simular todas las moléculas de una célula y todas las células del cuerpo humano, este modelo no correría tan rápido como el cuerpo humano. No importa cuán cuidadosamente diseñe un modelo de este tipo, aún necesitará pasar tiempo experimentando, ya sea un sistema real o una simulación.

    Para que sea útil, la inteligencia artificial debe introducirse en el mundo, y en este mundo, el ritmo necesario de innovación está cambiando con bastante rapidez. Sin los primeros experimentos, prototipos, errores y participación en la realidad, el intelecto puede pensar, pero no producirá resultados. No hará ningún descubrimiento momentáneo ni en un segundo, ni en una hora, ni en un año después de que se le llame "más inteligente que un hombre".

    Aparece la IA. Por supuesto, la tasa de descubrimiento se acelerará a medida que esta IA se vuelva más compleja, en parte porque la inteligencia artificial extraterrestre hará preguntas que ningún humano haría, pero incluso una inteligencia muy poderosa (en comparación con la nuestra) no garantiza un progreso inmediato. Se necesita mucho más que inteligencia para resolver problemas.

    Los problemas del cáncer y la longevidad no son los únicos que la inteligencia por sí sola no puede resolver. Existe un error común entre los partidarios de la idea de la singularidad tecnológica: si creamos una IA que sea más inteligente que los humanos, de repente comenzará a desarrollarse y crear una IA aún más inteligente.

    La nueva inteligencia artificial pensará más profundamente e inventará algo aún más inteligente, y así sucesivamente hasta que se invente algo parecido a un dios. No hay evidencia de que pensar solo sea suficiente para crear nuevos niveles de inteligencia. Este tipo de pensamiento se basa en la fe.

    Sin embargo, hay mucha evidencia de que la invención de una nueva inteligencia efectiva requiere no solo esfuerzos mentales, sino también experimentos, datos, preguntas difíciles, prueba y error.

    Entiendo que puedo estar equivocado. Si bien estamos en una etapa temprana. Quizá descubramos una escala universal de inteligencia o su infinitud en todos los sentidos. Existe la posibilidad de una singularidad tecnológica, porque sabemos muy poco sobre lo que es la inteligencia y la autoconciencia. En mi opinión, todo apunta a que esto es poco probable, pero aún existe la posibilidad.

    Sin embargo, apoyo los objetivos más amplios de OpenAI: debemos desarrollar una IA amigable y descubrir cómo darle valores que se repliquen por sí mismos y coincidan con los nuestros.

    Existe la posibilidad de que la IA sobrehumana pueda ser dañina a largo plazo, pero esta idea se basa en evidencia incompleta y no debe tomarse en serio cuando se trata de ciencia, política o progreso.

    El impacto de un asteroide en la Tierra podría destruirnos, existe la posibilidad de tal desenlace (así lo confirma la Fundación B612), pero no deberíamos considerar tal desenlace en cuestiones de calentamiento global, viajes espaciales o urbanismo.

    La evidencia disponible indica que lo más probable es que la IA no sea sobrehumana. Tendrá nuevas variedades de pensamiento que son inaccesibles para el hombre, pero sin una aplicación integral, no se convertirá en un dios que resolverá nuestros principales problemas en un instante.

    En cambio, se convertirá en una acumulación de intelectos con capacidades limitadas, será mejor que nosotros trabajemos en áreas a las que no estamos acostumbrados, junto con nosotros podrá encontrar soluciones tanto a los problemas existentes como a los nuevos.

    Entiendo lo atractiva que es la idea de una IA sobrehumana y divina. Podría ser el próximo Superman. Pero, como Superman, este es un personaje ficticio. En algún lugar del universo, Superman podría existir, pero es muy poco probable. Sea como fuere, los mitos pueden ser útiles y, una vez creados, no desaparecen.

    La idea de Superman vivirá para siempre. La idea de la IA sobrehumana y la Singularidad está surgiendo ahora y nunca será olvidada. Necesitamos entender qué tipo de idea es: religiosa o científica. Si estamos investigando la cuestión de la inteligencia, artificial o natural, debemos entender claramente que nuestro concepto de IA sobrehumana no es más que un mito.

    Las tribus de las islas aisladas de Micronesia hicieron contacto por primera vez con el mundo exterior durante la Segunda Guerra Mundial. Los dioses volaron desde tierras lejanas, descendieron del cielo en pájaros ruidosos, trajeron regalos y volaron para siempre. Los cultos del regreso de estos dioses y nuevos dones se extendieron por las islas. Incluso ahora, 50 años después, muchos siguen esperando su regreso.

    La IA sobrehumana podría convertirse en un nuevo culto de carga para nosotros. Quizás dentro de cien años, la gente percibirá nuestro tiempo de la misma manera: como si creyéramos en una IA sobrehumana y esperáramos durante décadas a que apareciera en cualquier momento y nos trajera regalos inimaginables.

    Sin embargo, la IA no sobrehumana ya existe ahora. Seguimos buscando una nueva definición para ello, para complicarlo. Sin embargo, en un sentido amplio, una mente ajena a nosotros es un espectro de capacidades intelectuales, de pensamiento, de mecanismos de razonamiento, de aprendizaje, de autoconciencia. La IA se está extendiendo y seguirá propagándose. Se vuelve más profundo, más diverso, más poderoso.

    Antes de la IA, ningún invento podía cambiar el mundo por completo. A finales del siglo XXI, la inteligencia artificial será tan poderosa que cambiará todo en nuestras vidas.

    Sea como fuere, el mito de una IA sobrehumana que nos dará superriqueza o superesclavitud (o ambas) seguirá vivo. Sin embargo, seguirá siendo un mito, que es poco probable que se materialice en la realidad.

    Y otros investigadores conocidos escribieron una carta abierta pidiendo la creación de estándares de seguridad en el campo del desarrollo de la inteligencia artificial (IA). /sitio web/

    En particular, pidieron la investigación y el desarrollo de un sistema de control confiable que no permita que la inteligencia artificial que funciona mal dañe a las personas. “Es necesario realizar un trabajo técnico para garantizar el control humano total”, dice la carta.

    A pesar del tono moderado de la carta, los luditas, temerosos de las nuevas tecnologías, entraron en pánico. En respuesta, la prensa apareció una gran cantidad de entrevistas y declaraciones de científicos que disiparon estos temores.

    Andrew Ng, un experto en inteligencia artificial de Baidu, le dijo a Fusion: "No veo un escenario realista para que el software en el que estamos trabajando hoy se vuelva disruptivo".

    A su vez, el periodista Scott Alexander compiló una lista de conocidos científicos involucrados en el desarrollo de la IA, quienes hablaron sobre el peligro potencial de la IA.

    Miedo y aprensión

    Stuart Russer, profesor de informática en la Universidad de California en Berkeley, comparó el desarrollo de mecanismos para controlar la IA con la adopción de medidas para la seguridad de los reactores nucleares.

    “Algunos creen que este problema no representa un peligro para la humanidad en los próximos cientos de años. Se olvidan de que Leo Szilard descubrió la reacción nuclear en cadena 24 horas después de que Rutherford declarara confiadamente que nunca se obtendría la energía atómica”, escribió Russell.

    Russell no está solo en su opinión. En una encuesta de 2014 realizada por Vincent Muller y Nick Bostrom a 170 de los principales expertos en inteligencia artificial, el 18 % de ellos creía que construir una máquina superinteligente sería un "verdadero desastre" para la humanidad. El 13% dijo que la IA avanzada tendría consecuencias negativas para los humanos. Poco más de la mitad de los científicos dijeron que tendría un impacto positivo.

    Aunque la opinión de los expertos sobre el impacto de la IA es ambigua, la mayoría coincide en que la creación de IA avanzada es solo cuestión de tiempo. Según las previsiones, se creará una IA igual a un ser humano en 2050 (50 % de probabilidad) o en 2075 (90 % de probabilidad). Y 30 años después de su creación, aparecerá una superinteligencia artificial que superará a los humanos en todos los aspectos.

    camiones locos

    ¿Cómo podría ser el ascenso de las máquinas? En películas de ciencia ficción, como "Terminator", "Robot", "Animatrix", se muestra la guerra de personas con cyborgs.

    A juzgar por las películas de ciencia ficción, muchos pueden ser de la opinión de que el peligro potencial es fácil de evitar.Después de todo, la IA es básicamente solo un software de computadora.

    Sin embargo, la inteligencia artificial no necesita tener un cuerpo mecánico para ganar poder en el mundo real: simplemente puede comenzar a controlar todos nuestros dispositivos electrónicos cotidianos.

    Stephen King presentó tal escenario en el cuento "Trucks". En la historia, escrita en los años 70, los camiones toman conciencia y comienzan a atacar a las personas. Un grupo de personas se esconde de los furiosos camiones. Los camiones aún requieren combustible para operar y usan el código Morse para ordenar a las personas que se llenen o la excavadora los volará. La gente obedece.

    La historia termina con la visión del narrador de que los camiones han esclavizado a la humanidad y están imponiendo sus valores en todas partes, como obligándolos a construir carreteras en todo el mundo. Es sacado de su mundo de fantasía por el sonido de un avión volando en el cielo.

    La historia de Stephen King parecía futurista en la época en que fue escrita, pero no está tan alejada de la realidad del mundo moderno. camiones autónomos ya existen, y en el futuro, las empresas pueden reemplazar a los conductores con un sistema de navegación autónomo para ahorrar dinero.

    El hack de Sony del año pasado demuestra que nuestros sistemas de información son cada vez más vulnerables. Esta es una de las consecuencias de la creciente informatización de las infraestructuras.

    Sin embargo, no hay motivo de preocupación todavía. La inteligencia artificial tiene un largo camino por recorrer antes de que pueda igualar el cerebro humano. El ejemplo del camión autónomo ilustra bien esto. Si bien todavía son demasiado imperfectos para conducir de forma independiente por las concurridas calles de la ciudad.

    ¿Instalarías una aplicación para leer artículos de época en tu teléfono?



    ¿Te gustó el artículo? ¡Compartir con amigos!