Per a BMS, autobús, cable industrial, instrumentació.

Grok 3 m'ha deixat sorprès. Després de veure l’esdeveniment de llançament, inicialment em va impressionar les seves robustes capacitats de dades i mètriques d’alt rendiment. Tanmateix, després del seu llançament oficial, el feedback a les xarxes socials i les meves experiències van revelar una història diferent. Si bé les capacitats d’escriptura de Grok 3 són indiscutiblement fortes, la seva manca de límits morals és alarmant. No només aborda els temes polítics amb audàcia sense restriccions, sinó que també ofereix respostes indignants a dilemes ètics com el problema del carro.
El que realment va catapultar a Grok 3 a la llum era la seva capacitat de generar contingut explícit per a adults. Els detalls són massa gràfics per compartir, però n’hi ha prou amb dir -ho, el contingut era tan explícit que compartir -lo arriscaria la suspensió del compte. L’alineació de la IA amb els protocols de seguretat sembla tan errònia com la famosa imprevisibilitat del seu creador. Fins i tot els comentaris innòcus que contenien paraules clau relacionades amb el GROK 3 i el contingut explícit van obtenir una atenció massiva, amb seccions de comentaris inundades de sol·licituds de tutorials. Això planteja qüestions serioses sobre la moral, la humanitat i els mecanismes de supervisió al seu lloc.

Polítiques estrictes contra NSFW
Tot i que l’ús de l’IA per generar contingut d’adults no és nou —com GPT-3.5 va portar l’IA al corrent principal el 2023, cada nou llançament del model d’AI ha vist una pressa tant dels crítics de tecnologia com dels entusiastes en línia—, el cas de GROK 3 és especialment important. La comunitat de l'AI sempre ha estat ràpida a explotar nous models per al contingut d'adults, i Grok 3 no és una excepció. Les plataformes com Reddit i Arxiv estan plenes de guies sobre com obviar les restriccions i generar material explícit.
Les principals empreses de la IA s’han esforçat a implementar crítiques morals estrictes per frenar aquest mal ús. Per exemple, Midjourney, una plataforma principal de generació d’imatges d’AI, té polítiques estrictes contra el contingut de NSFW (no segur per al treball), incloses imatges violentes, nues o sexualitzades. Les infraccions poden provocar prohibicions de comptes. Tot i això, aquestes mesures solen ser curtes a mesura que els usuaris troben maneres creatives d’evitar les restriccions, una pràctica coneguda col·loquialment com a "jailbreaking".
La demanda de contingut d’adults és un fenomen global i atemporal, i l’IA només ha proporcionat una nova sortida. Recentment, fins i tot Openai ha relaxat algunes de les seves restriccions de contingut sota pressions de creixement, tret del contingut que implica menors, que segueix sent estrictament prohibit. Aquest canvi ha fet que les interaccions amb la IA siguin més humanes i atractives, com ho demostren les entusiastes reaccions de Reddit.

Les implicacions ètiques d’una IA sense restriccions són profundes
Tot i això, les implicacions ètiques d’una IA sense restriccions són profundes. Si bé una IA amb esperit lliure pot atendre determinades exigències dels usuaris, també alberga un costat fosc. Els sistemes d’IA mal alineats i inadequats poden generar no només contingut d’adults, sinó també un discurs d’odi extrem, conflictes ètnics i violència gràfica, inclòs contingut que implica menors. Aquests problemes transcendeixen el regne de la llibertat i entren al territori de les violacions legals i morals.
L’equilibri de les capacitats tecnològiques amb consideracions ètiques és crucial. La relaxació gradual de les restriccions de contingut d’Openai, mantenint una política de tolerància zero cap a determinades línies vermelles, exemplifica aquest delicat equilibri. De la mateixa manera, DeepSeek, malgrat el seu estricte entorn regulador, veu als usuaris trobar maneres d’empènyer els límits, provocant actualitzacions contínues als seus mecanismes de filtratge.

Fins i tot Elon Musk, conegut per les seves atrevides empreses, és poc probable que deixi fora de control Grok 3. El seu objectiu final és la comercialització global i la retroalimentació de les dades, no les batalles reguladores constants ni els crits públics. Tot i que no m’oposo a l’ús de la IA per al contingut d’adults, és imprescindible establir una revisió de contingut clar, raonable i socialment conforme socialment.

Conclusió
En conclusió, si bé una IA completament lliure pot ser intrigant, no és segur. L’equilibri entre la innovació tecnològica i la responsabilitat ètica és essencial per al desenvolupament sostenible de la IA.
Esperem que naveguen per aquest camí amb cura.
Cables de control
Sistema de cablejat estructurat
Xarxa i dades, cable de fibra òptica, cable de pegat, mòduls, placa facial
16 d'abril-18, 2024 Energia de l'Orient Mitjà a Dubai
16 d'abril-18, 2024 Securika a Moscou
9 de maig de 2024 Esdeveniment de llançament de nous productes i tecnologies a Xangai
22 d'octubre del 25 d'octubre de 2024 Seguretat Xina a Beijing
19-20 de novembre de 2024 Mundial Connected KSA
Posada Posada: FEB-20-2025