El País ha publicado en su edición de este sábado un bochornoso artículo sobre el crecimiento de iglesias evangélicas en la zona de Carabanchel.
Tres expertos reaccionan a la carta abierta ampliamente difundida que llama a “pausar de inmediato, durante al menos seis meses, el entrenamiento de los sistemas de Inteligencia Artificial” como el popular GPT-4.
Chat GPT está en boca de todos estas semanas. Muchos ya han accedido en la plataforma de texto de Inteligencia Artificial (IA) para probarlo. ¿Qué me dirá si le pregunto a la IA cuál es el mejor equipo de fútbol del mundo? ¿Podría hacer mi trabajo por mí? ¿Cuál es su punto de vista sobre la última controversia teológica?
[ads_google]div-gpt-ad-1623832500134-0[/ads_google]
Con millones de personas en todo el mundo probando la herramienta, la capacidad del chatbot (cuyo nombre técnico es ‘Generative Pre-trained Transformer’) creado por la empresa OpenAI ha revolucionado la carrera en el campo de la Inteligencia Artificial.
Chat GPT-4 es la última versión y ha introducido capacidades para analizar y generar imágenes. El nuevo sistema ha sido capaz de superar diversas pruebas, incluido un examen judicial.
Pero muchos, incluso expertos, han expresado su preocupación por la rápida expansión de estas herramientas. Una carta abierta publicada por el Future For Life Institute (un grupo de investigación sin fines de lucro que analiza las amenazas a la existencia humana, especialmente en el campo de la tecnología) dice que la carrera de la IA se está yendo de las manos y que “los experimentos gigantes de IA deberían detenerse”. Estas nuevas “mentes digitales poderosas” que podrían afectar profundamente la comunicación social, el mercado laboral, las artes y la política, son una “amenaza para nuestra civilización”, dicen, ya que “nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable” sus resultados.
Los firmantes de la carta incluyen personas relevantes como el CEO de Twitter, Elon Musk, y el cofundador de Apple, Steve Wozniak, así como académicos en el campo de la tecnología de las comunicaciones.
Ante este escenario abierto, Evangelical Focus preguntó a tres expertos sobre los dilemas de ética y tecnología en cuanto a la IA. Esto es lo que nos dijeron.
[photo_footer]Patricia Shaw, John Wyatt y Juan Parras.[/photo_footer]
CEO y fundador de Beyond Reach, una consultora de ética tecnológica.
Soy bastante escéptica sobre el impacto práctico en el mundo real que tendrá esta Carta Abierta solicitando una moratoria voluntaria de seis meses en el entrenamiento de modelos de lenguaje inteligente o que va más allá de las capacidades de ChatGPT-4. Sin embargo, es importante tener en cuenta los sentimientos que se expresan de la carta:
- Defender la verdad
- Mantener el control de las tecnologías que creamos, sin renunciar a nuestra independencia o autonomía
- Reconocer los riesgos que la IA puede presentar y que socavan a la humanidad
- Gestionar esos riesgos
- Hacerse responsable de los resultados de la IA
- Solicitar expertos independientes para desarrollar y ayudar a implementar protocolos de seguridad
- Llamar a una revisión independiente
Lo que esta carta refleja es la clara necesidad de que las organizaciones asuman la responsabilidad de los resultados sociales y económicos de la Inteligencia Artificial que crean; y esto claramente requiere un gobierno de IA ético y responsable.
[destacate]“Construir un ecosistema de gobernanza de la ética de la IA requiere financiación, dotación de personal y desarrollo de capacidades”[/destacate]Al estar trabajando en principios y marcos de IA responsables, estandarización sociotécnica, certificación de ética de IA y gobernanza de IA, todo relacionado con políticas, leyes, tecnología y ética, puedo ver que muchas de las herramientas en la solicitud de la carta están listas o cerca de estarlo.
Las organizaciones que diseñan, desarrollan, implementan, usan y monitorean la IA deben aprovechar el ecosistema de gobernanza de la ética de la IA de las medidas regulatorias y no regulatorias disponibles, pero eso requiere financiación, dotación de personal y desarrollo de capacidades.
Reformulando la carta, desde el otro punto de vista:
- ¿Están las empresas y los gobiernos listos para ser transparentes y tener un diálogo serio a nivel social sobre el tipo de IA que podemos crear? ¿Están listos para evaluar el riesgo de lo que está haciendo por nosotros y para nosotros, y cómo puede afectar sus decisiones de continuar o no?
- ¿Están las empresas y los gobiernos listos para implementar una gobernanza de IA ética y responsable y, cuando lo hagan, estarán dispuestos a involucrar verdaderamente a las partes interesadas que se ven afectadas o influenciadas por el sistema de IA de una manera participativa y con poder de voz?
- ¿Están las empresas y los gobiernos que crean y utilizan la IA “preparados, dispuestos y capaces” de ser regulados?
Por último, pero no menos importante. Pidamos un liderazgo audaz e innovador que se centre en crear una IA que aborde los graves problemas mundiales que enfrentamos (en lugar de crear más) en beneficio de toda la humanidad.
[ads_google]div-gpt-ad-1623832402041-0[/ads_google]
Médico, autor e investigador científico especializado en bioética.
Apoyo fundamentalmente el llamado que ha publicado el Future of Life Institute dirigido a las principales empresas tecnológicas para pausar el lanzamiento de más programas sofisticados de inteligencia artificial generativa para el público en general durante un período de seis meses. Esta convocatoria ya ha sido apoyada por un número significativo de figuras académicas líderes en el mundo de la IA.
Sin embargo, es importante entender las razones para esta pausa. La amenaza no es que la tecnología ya esté desarrollando habilidades sobrehumanas que son capaces de amenazar directamente los intereses y la supervivencia de la raza humana. Este es un miedo distópico que se deriva de la ciencia ficción, pero la tecnología actual está aún muy lejos de este nivel de capacidad.
Para mí, las amenazas realistas están mucho más relacionadas con estos dos aspectos.
[destacate]“Debería preocuparnos que los seres humanos caídos utilicen esta tecnología con fines malignos”[/destacate]1. Las tecnologías lanzadas recientemente como Chat GPT y BARD ya están teniendo consecuencias imprevistas en áreas tan diversas como:
- Exámenes y educación secundaria y universitaria: el plagio que utiliza estos programas ya es abundante y en gran parte indetectable. Ahora está en marcha una “carrera armamentista” entre los estafadores y los educadores, y es probable que continúe.
- Investigación académica: la creación de artículos científicos fraudulentos ya se ha convertido en un problema importante.
- La creación de libros, artículos, blogs, etc. fraudulentos.
- Una ola de información falsa y engañosa sobre temas científicos, médicos y de otro tipo que se publica en Internet.
2. Existe un enorme potencial para el mal que esta tecnología ofrece a los seres humanos caídos con propósitos y metas malévolos.
- Ya se está produciendo un tsunami de desinformación en áreas políticamente sensibles. La creación de 'deepfakes' se ha vuelto mucho más efectiva y más difícil de identificar y controlar.
- Existe el peligro de que Internet se inunde de contenido falso y engañoso y que sea cada vez más difícil distinguir la verdad de las mentiras sutiles y la desinformación.
Entonces, en retrospectiva, fue profundamente irresponsable que Open AI, Microsoft y Google lanzaran estos programas al público en general prácticamente sin ningún tipo de control. Sus motivos parecen ser totalmente comerciales, para obtener una ventaja comercial sobre sus competidores, sin preocuparse por las posibles consecuencias adversas para la sociedad en su conjunto.
Creo que es apropiado apoyar el llamado a una pausa de seis meses para lanzar más programas generativos de IA mientras se desarrollan los controles y marcos regulatorios apropiados.
Pero no debemos dar paso a temores distópicos sobre inteligencias artificiales sobrehumanas, ya que claramente este no es el caso. Deberíamos preocuparnos por los seres humanos caídos que usan esta tecnología con fines malignos, en lugar de que la tecnología en sí misma pueda volverse maligna.
[ads_google]div-gpt-ad-1623832402041-0[/ads_google]
Investigador y profesor de IA en la Universidad Politécnica de Madrid (UPM).
Por poner un poco de contexto, en este último año han salido algunas IA que empiezan a tener capacidades muy potentes: los modelos de lenguaje (ChatGPT, GPT-4), los modelos de generación de imágenes (DALL-e, Midjourney), los transcriptores de audio (Whisper)…
[destacate]“Sería necesaria una evaluación sosegada y profunda de estas herramientas”[/destacate]Lo que está dando más que hablar (y creo que motiva la carta) son los modelos de lenguaje, porque son una evolución del buscador de Google. Si en el buscador tú tenías que buscar palabras clave, en estos modelos tú haces preguntas y ellos te responden. Tienen una gran ventaja (pueden ahorrar muchísimo tiempo al elaborar una respuesta usando potencialmente numerosas fuentes, combinándolas; inlcuso puedes usarlas para escribir artículos para el periódico), y un gran inconveniente (tienden a “hallucinate”, a inventarse cosas, con lo que sus datos no siempre son fiables y deberían entenderse como un primer borrador, a ser confirmado y afinado). Pero a día de hoy, hay un gran hype en cuanto a sus posibilidades, y para OpenAI (su empresa) es un filón económico.
Yendo a la carta: lleva razón en que las empresas de IA están en una carrera para ver quién saca lo siguiente, sin dar tiempo a evaluar y testear las herramientas y modelos que tienen (ChatGPT, por ejemplo, cuando era “gratis” era para hacer la fase de testeo). Esa parte de la carta es razonable, pero desgraciadamente, va a ser ignorada (las empresas prefieren beneficios a tener modelos en condiciones…).
Mi impresión: sería necesaria una evaluación sosegada y profunda de estas herramientas, porque al igual que tienen grandes potencialidades (al igual que el buscador de Google revolucionó la vida), también tienen grandes riesgos (la posibilidad de generar fake news, de realizar esquemas de phising y estafas…). Pero a la vez, creo que esta evaluación no va a tener lugar, porque la IA ahora mismo es una carrera a ver quién consigue la herramienta que marque el paso en los siguientes años (y ahí Open AI va a la cabeza, a ver quién les dice que aflojen el ritmo…).
[donate]
La conmemoración de la Reforma, las tensiones en torno a la interpretación bíblica de la sexualidad o el crecimiento de las iglesias en Asia o África son algunos de los temas de la década que analizamos.
Estudiamos el fenómeno de la luz partiendo de varios detalles del milagro de la vista en Marcos 8:24, en el que Jesús nos ayuda a comprender nuestra necesidad de ver la realidad claramente.
Causas del triunfo de Boris Johnson y del Brexit; y sus consecuencias para la Unión Europea y la agenda globalista. Una entrevista a César Vidal.
Analizamos las noticias más relevantes de la semana.
Algunas imágenes del primer congreso protestante sobre ministerios con la infancia y la familia, celebrado en Madrid.
Algunas fotos de la entrega del Premio Jorge Borrow 2019 y de este encuentro de referencia, celebrado el sábado en la Facultad de Filología y en el Ayuntamiento de Salamanca. Fotos de MGala.
Instantáneas del fin de semana de la Alianza Evangélica Española en Murcia, donde se desarrolló el programa con el lema ‘El poder transformador de lo pequeño’.
José era alguien de una gran lealtad, la cual demostró con su actitud y acciones.
Celebración de Navidad evangélica, desde la Iglesia Evangélica Bautista Buen Pastor, en Madrid.
Madrid acoge el min19, donde ministerios evangélicos de toda España conversan sobre los desafíos de la infancia en el mundo actual.
Las opiniones vertidas por nuestros colaboradores se realizan a nivel personal, pudiendo coincidir o no con la postura de la dirección de Protestante Digital.
Si quieres comentar o