]> sigrok.org Git - libsigrok.git/blob - src/hardware/asix-sigma/protocol.c
6dfa7afdd3a53e9bc404afa702f7a5fc048997d8
[libsigrok.git] / src / hardware / asix-sigma / protocol.c
1 /*
2  * This file is part of the libsigrok project.
3  *
4  * Copyright (C) 2010-2012 Håvard Espeland <gus@ping.uio.no>,
5  * Copyright (C) 2010 Martin Stensgård <mastensg@ping.uio.no>
6  * Copyright (C) 2010 Carl Henrik Lunde <chlunde@ping.uio.no>
7  * Copyright (C) 2020 Gerhard Sittig <gerhard.sittig@gmx.net>
8  *
9  * This program is free software: you can redistribute it and/or modify
10  * it under the terms of the GNU General Public License as published by
11  * the Free Software Foundation, either version 3 of the License, or
12  * (at your option) any later version.
13  *
14  * This program is distributed in the hope that it will be useful,
15  * but WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
17  * GNU General Public License for more details.
18  *
19  * You should have received a copy of the GNU General Public License
20  * along with this program.  If not, see <http://www.gnu.org/licenses/>.
21  */
22
23 /*
24  * ASIX SIGMA/SIGMA2 logic analyzer driver
25  */
26
27 #include <config.h>
28 #include "protocol.h"
29
30 /*
31  * The ASIX SIGMA hardware supports fixed 200MHz and 100MHz sample rates
32  * (by means of separate firmware images). As well as 50MHz divided by
33  * an integer divider in the 1..256 range (by the "typical" firmware).
34  * Which translates to a strict lower boundary of around 195kHz.
35  *
36  * This driver "suggests" a subset of the available rates by listing a
37  * few discrete values, while setter routines accept any user specified
38  * rate that is supported by the hardware.
39  */
40 static const uint64_t samplerates[] = {
41         /* 50MHz and integer divider. 1/2/5 steps (where possible). */
42         SR_KHZ(200), SR_KHZ(500),
43         SR_MHZ(1), SR_MHZ(2), SR_MHZ(5),
44         SR_MHZ(10), SR_MHZ(25), SR_MHZ(50),
45         /* 100MHz/200MHz, fixed rates in special firmware. */
46         SR_MHZ(100), SR_MHZ(200),
47 };
48
49 SR_PRIV GVariant *sigma_get_samplerates_list(void)
50 {
51         return std_gvar_samplerates(samplerates, ARRAY_SIZE(samplerates));
52 }
53
54 static const char *firmware_files[] = {
55         [SIGMA_FW_50MHZ] = "asix-sigma-50.fw", /* 50MHz, 8bit divider. */
56         [SIGMA_FW_100MHZ] = "asix-sigma-100.fw", /* 100MHz, fixed. */
57         [SIGMA_FW_200MHZ] = "asix-sigma-200.fw", /* 200MHz, fixed. */
58         [SIGMA_FW_SYNC] = "asix-sigma-50sync.fw", /* Sync from external pin. */
59         [SIGMA_FW_FREQ] = "asix-sigma-phasor.fw", /* Frequency counter. */
60 };
61
62 #define SIGMA_FIRMWARE_SIZE_LIMIT (256 * 1024)
63
64 static int sigma_ftdi_open(const struct sr_dev_inst *sdi)
65 {
66         struct dev_context *devc;
67         int vid, pid;
68         const char *serno;
69         int ret;
70
71         devc = sdi->priv;
72         if (!devc)
73                 return SR_ERR_ARG;
74
75         if (devc->ftdi.is_open)
76                 return SR_OK;
77
78         vid = devc->id.vid;
79         pid = devc->id.pid;
80         serno = sdi->serial_num;
81         if (!vid || !pid || !serno || !*serno)
82                 return SR_ERR_ARG;
83
84         ret = ftdi_init(&devc->ftdi.ctx);
85         if (ret < 0) {
86                 sr_err("Cannot initialize FTDI context (%d): %s.",
87                         ret, ftdi_get_error_string(&devc->ftdi.ctx));
88                 return SR_ERR_IO;
89         }
90         ret = ftdi_usb_open_desc_index(&devc->ftdi.ctx,
91                 vid, pid, NULL, serno, 0);
92         if (ret < 0) {
93                 sr_err("Cannot open device (%d): %s.",
94                         ret, ftdi_get_error_string(&devc->ftdi.ctx));
95                 return SR_ERR_IO;
96         }
97         devc->ftdi.is_open = TRUE;
98
99         return SR_OK;
100 }
101
102 static int sigma_ftdi_close(struct dev_context *devc)
103 {
104         int ret;
105
106         ret = ftdi_usb_close(&devc->ftdi.ctx);
107         devc->ftdi.is_open = FALSE;
108         devc->ftdi.must_close = FALSE;
109         ftdi_deinit(&devc->ftdi.ctx);
110
111         return ret == 0 ? SR_OK : SR_ERR_IO;
112 }
113
114 SR_PRIV int sigma_check_open(const struct sr_dev_inst *sdi)
115 {
116         struct dev_context *devc;
117         int ret;
118
119         if (!sdi)
120                 return SR_ERR_ARG;
121         devc = sdi->priv;
122         if (!devc)
123                 return SR_ERR_ARG;
124
125         if (devc->ftdi.is_open)
126                 return SR_OK;
127
128         ret = sigma_ftdi_open(sdi);
129         if (ret != SR_OK)
130                 return ret;
131         devc->ftdi.must_close = TRUE;
132
133         return ret;
134 }
135
136 SR_PRIV int sigma_check_close(struct dev_context *devc)
137 {
138         int ret;
139
140         if (!devc)
141                 return SR_ERR_ARG;
142
143         if (devc->ftdi.must_close) {
144                 ret = sigma_ftdi_close(devc);
145                 if (ret != SR_OK)
146                         return ret;
147                 devc->ftdi.must_close = FALSE;
148         }
149
150         return SR_OK;
151 }
152
153 SR_PRIV int sigma_force_open(const struct sr_dev_inst *sdi)
154 {
155         struct dev_context *devc;
156         int ret;
157
158         if (!sdi)
159                 return SR_ERR_ARG;
160         devc = sdi->priv;
161         if (!devc)
162                 return SR_ERR_ARG;
163
164         ret = sigma_ftdi_open(sdi);
165         if (ret != SR_OK)
166                 return ret;
167         devc->ftdi.must_close = FALSE;
168
169         return SR_OK;
170 }
171
172 SR_PRIV int sigma_force_close(struct dev_context *devc)
173 {
174         return sigma_ftdi_close(devc);
175 }
176
177 /*
178  * BEWARE! Error propagation is important, as are kinds of return values.
179  *
180  * - Raw USB tranport communicates the number of sent or received bytes,
181  *   or negative error codes in the external library's(!) range of codes.
182  * - Internal routines at the "sigrok driver level" communicate success
183  *   or failure in terms of SR_OK et al error codes.
184  * - Main loop style receive callbacks communicate booleans which arrange
185  *   for repeated calls to drive progress during acquisition.
186  *
187  * Careful consideration by maintainers is essential, because all of the
188  * above kinds of values are assignment compatbile from the compiler's
189  * point of view. Implementation errors will go unnoticed at build time.
190  */
191
192 static int sigma_read_raw(struct dev_context *devc, void *buf, size_t size)
193 {
194         int ret;
195
196         ret = ftdi_read_data(&devc->ftdi.ctx, (unsigned char *)buf, size);
197         if (ret < 0) {
198                 sr_err("USB data read failed: %s",
199                         ftdi_get_error_string(&devc->ftdi.ctx));
200         }
201
202         return ret;
203 }
204
205 static int sigma_write_raw(struct dev_context *devc, const void *buf, size_t size)
206 {
207         int ret;
208
209         ret = ftdi_write_data(&devc->ftdi.ctx, buf, size);
210         if (ret < 0) {
211                 sr_err("USB data write failed: %s",
212                         ftdi_get_error_string(&devc->ftdi.ctx));
213         } else if ((size_t)ret != size) {
214                 sr_err("USB data write length mismatch.");
215         }
216
217         return ret;
218 }
219
220 static int sigma_read_sr(struct dev_context *devc, void *buf, size_t size)
221 {
222         int ret;
223
224         ret = sigma_read_raw(devc, buf, size);
225         if (ret < 0 || (size_t)ret != size)
226                 return SR_ERR_IO;
227
228         return SR_OK;
229 }
230
231 static int sigma_write_sr(struct dev_context *devc, const void *buf, size_t size)
232 {
233         int ret;
234
235         ret = sigma_write_raw(devc, buf, size);
236         if (ret < 0 || (size_t)ret != size)
237                 return SR_ERR_IO;
238
239         return SR_OK;
240 }
241
242 /*
243  * Implementor's note: The local write buffer's size shall suffice for
244  * any know FPGA register transaction that is involved in the supported
245  * feature set of this sigrok device driver. If the length check trips,
246  * that's a programmer's error and needs adjustment in the complete call
247  * stack of the respective code path.
248  */
249 #define SIGMA_MAX_REG_DEPTH     32
250
251 /*
252  * Implementor's note: The FPGA command set supports register access
253  * with automatic address adjustment. This operation is documented to
254  * wrap within a 16-address range, it cannot cross boundaries where the
255  * register address' nibble overflows. An internal helper assumes that
256  * callers remain within this auto-adjustment range, and thus multi
257  * register access requests can never exceed that count.
258  */
259 #define SIGMA_MAX_REG_COUNT     16
260
261 SR_PRIV int sigma_write_register(struct dev_context *devc,
262         uint8_t reg, uint8_t *data, size_t len)
263 {
264         uint8_t buf[2 + SIGMA_MAX_REG_DEPTH * 2], *wrptr;
265         size_t idx;
266
267         if (len > SIGMA_MAX_REG_DEPTH) {
268                 sr_err("Short write buffer for %zu bytes to reg %u.", len, reg);
269                 return SR_ERR_BUG;
270         }
271
272         wrptr = buf;
273         write_u8_inc(&wrptr, REG_ADDR_LOW | LO4(reg));
274         write_u8_inc(&wrptr, REG_ADDR_HIGH | HI4(reg));
275         for (idx = 0; idx < len; idx++) {
276                 write_u8_inc(&wrptr, REG_DATA_LOW | LO4(data[idx]));
277                 write_u8_inc(&wrptr, REG_DATA_HIGH_WRITE | HI4(data[idx]));
278         }
279
280         return sigma_write_sr(devc, buf, wrptr - buf);
281 }
282
283 SR_PRIV int sigma_set_register(struct dev_context *devc,
284         uint8_t reg, uint8_t value)
285 {
286         return sigma_write_register(devc, reg, &value, sizeof(value));
287 }
288
289 static int sigma_read_register(struct dev_context *devc,
290         uint8_t reg, uint8_t *data, size_t len)
291 {
292         uint8_t buf[3], *wrptr;
293         int ret;
294
295         wrptr = buf;
296         write_u8_inc(&wrptr, REG_ADDR_LOW | LO4(reg));
297         write_u8_inc(&wrptr, REG_ADDR_HIGH | HI4(reg));
298         write_u8_inc(&wrptr, REG_READ_ADDR);
299         ret = sigma_write_sr(devc, buf, wrptr - buf);
300         if (ret != SR_OK)
301                 return ret;
302
303         return sigma_read_sr(devc, data, len);
304 }
305
306 static int sigma_get_register(struct dev_context *devc,
307         uint8_t reg, uint8_t *data)
308 {
309         return sigma_read_register(devc, reg, data, sizeof(*data));
310 }
311
312 static int sigma_get_registers(struct dev_context *devc,
313         uint8_t reg, uint8_t *data, size_t count)
314 {
315         uint8_t buf[2 + SIGMA_MAX_REG_COUNT], *wrptr;
316         size_t idx;
317         int ret;
318
319         if (count > SIGMA_MAX_REG_COUNT) {
320                 sr_err("Short command buffer for %zu reg reads at %u.", count, reg);
321                 return SR_ERR_BUG;
322         }
323
324         wrptr = buf;
325         write_u8_inc(&wrptr, REG_ADDR_LOW | LO4(reg));
326         write_u8_inc(&wrptr, REG_ADDR_HIGH | HI4(reg));
327         for (idx = 0; idx < count; idx++)
328                 write_u8_inc(&wrptr, REG_READ_ADDR | REG_ADDR_INC);
329         ret = sigma_write_sr(devc, buf, wrptr - buf);
330         if (ret != SR_OK)
331                 return ret;
332
333         return sigma_read_sr(devc, data, count);
334 }
335
336 static int sigma_read_pos(struct dev_context *devc,
337         uint32_t *stoppos, uint32_t *triggerpos, uint8_t *mode)
338 {
339         uint8_t result[7];
340         const uint8_t *rdptr;
341         uint32_t v32;
342         uint8_t v8;
343         int ret;
344
345         /*
346          * Read 7 registers starting at trigger position LSB.
347          * Which yields two 24bit counter values, and mode flags.
348          */
349         ret = sigma_get_registers(devc, READ_TRIGGER_POS_LOW,
350                 result, sizeof(result));
351         if (ret != SR_OK)
352                 return ret;
353
354         rdptr = &result[0];
355         v32 = read_u24le_inc(&rdptr);
356         if (triggerpos)
357                 *triggerpos = v32;
358         v32 = read_u24le_inc(&rdptr);
359         if (stoppos)
360                 *stoppos = v32;
361         v8 = read_u8_inc(&rdptr);
362         if (mode)
363                 *mode = v8;
364
365         /*
366          * These positions consist of "the memory row" in the MSB fields,
367          * and "an event index" within the row in the LSB fields. Part
368          * of the memory row's content is sample data, another part is
369          * timestamps.
370          *
371          * The retrieved register values point to after the captured
372          * position. So they need to get decremented, and adjusted to
373          * cater for the timestamps when the decrement carries over to
374          * a different memory row.
375          */
376         if (stoppos && (--*stoppos & ROW_MASK) == ROW_MASK)
377                 *stoppos -= CLUSTERS_PER_ROW;
378         if (triggerpos && (--*triggerpos & ROW_MASK) == ROW_MASK)
379                 *triggerpos -= CLUSTERS_PER_ROW;
380
381         return SR_OK;
382 }
383
384 static int sigma_read_dram(struct dev_context *devc,
385         uint16_t startchunk, size_t numchunks, uint8_t *data)
386 {
387         uint8_t buf[128], *wrptr, regval;
388         size_t chunk;
389         int sel, ret;
390         gboolean is_last;
391
392         if (2 + 3 * numchunks > ARRAY_SIZE(buf)) {
393                 sr_err("Short write buffer for %zu DRAM row reads.", numchunks);
394                 return SR_ERR_BUG;
395         }
396
397         /* Communicate DRAM start address (memory row, aka samples line). */
398         wrptr = buf;
399         write_u16be_inc(&wrptr, startchunk);
400         ret = sigma_write_register(devc, WRITE_MEMROW, buf, wrptr - buf);
401         if (ret != SR_OK)
402                 return ret;
403
404         /*
405          * Access DRAM content. Fetch from DRAM to FPGA's internal RAM,
406          * then transfer via USB. Interleave the FPGA's DRAM access and
407          * USB transfer, use alternating buffers (0/1) in the process.
408          */
409         wrptr = buf;
410         write_u8_inc(&wrptr, REG_DRAM_BLOCK);
411         write_u8_inc(&wrptr, REG_DRAM_WAIT_ACK);
412         for (chunk = 0; chunk < numchunks; chunk++) {
413                 sel = chunk % 2;
414                 is_last = chunk == numchunks - 1;
415                 if (!is_last) {
416                         regval = REG_DRAM_BLOCK | REG_DRAM_SEL_BOOL(!sel);
417                         write_u8_inc(&wrptr, regval);
418                 }
419                 regval = REG_DRAM_BLOCK_DATA | REG_DRAM_SEL_BOOL(sel);
420                 write_u8_inc(&wrptr, regval);
421                 if (!is_last)
422                         write_u8_inc(&wrptr, REG_DRAM_WAIT_ACK);
423         }
424         ret = sigma_write_sr(devc, buf, wrptr - buf);
425         if (ret != SR_OK)
426                 return ret;
427
428         return sigma_read_sr(devc, data, numchunks * ROW_LENGTH_BYTES);
429 }
430
431 /* Upload trigger look-up tables to Sigma. */
432 SR_PRIV int sigma_write_trigger_lut(struct dev_context *devc,
433         struct triggerlut *lut)
434 {
435         int lut_addr;
436         uint8_t tmp[2];
437         uint16_t bit;
438         uint8_t buf[6], *wrptr, regval;
439         int ret;
440
441         /* Transpose the table and send to Sigma. */
442         for (lut_addr = 0; lut_addr < 16; lut_addr++) {
443                 bit = 1 << lut_addr;
444
445                 tmp[0] = tmp[1] = 0;
446
447                 if (lut->m2d[0] & bit)
448                         tmp[0] |= 0x01;
449                 if (lut->m2d[1] & bit)
450                         tmp[0] |= 0x02;
451                 if (lut->m2d[2] & bit)
452                         tmp[0] |= 0x04;
453                 if (lut->m2d[3] & bit)
454                         tmp[0] |= 0x08;
455
456                 if (lut->m3 & bit)
457                         tmp[0] |= 0x10;
458                 if (lut->m3s & bit)
459                         tmp[0] |= 0x20;
460                 if (lut->m4 & bit)
461                         tmp[0] |= 0x40;
462
463                 if (lut->m0d[0] & bit)
464                         tmp[1] |= 0x01;
465                 if (lut->m0d[1] & bit)
466                         tmp[1] |= 0x02;
467                 if (lut->m0d[2] & bit)
468                         tmp[1] |= 0x04;
469                 if (lut->m0d[3] & bit)
470                         tmp[1] |= 0x08;
471
472                 if (lut->m1d[0] & bit)
473                         tmp[1] |= 0x10;
474                 if (lut->m1d[1] & bit)
475                         tmp[1] |= 0x20;
476                 if (lut->m1d[2] & bit)
477                         tmp[1] |= 0x40;
478                 if (lut->m1d[3] & bit)
479                         tmp[1] |= 0x80;
480
481                 /*
482                  * This logic seems redundant, but separates the value
483                  * determination from the wire format, and is useful
484                  * during future maintenance and research.
485                  */
486                 wrptr = buf;
487                 write_u8_inc(&wrptr, tmp[0]);
488                 write_u8_inc(&wrptr, tmp[1]);
489                 ret = sigma_write_register(devc, WRITE_TRIGGER_SELECT,
490                         buf, wrptr - buf);
491                 if (ret != SR_OK)
492                         return ret;
493                 ret = sigma_set_register(devc, WRITE_TRIGGER_SELECT2,
494                         TRGSEL2_RESET | TRGSEL2_LUT_WRITE |
495                         (lut_addr & TRGSEL2_LUT_ADDR_MASK));
496                 if (ret != SR_OK)
497                         return ret;
498         }
499
500         /* Send the parameters */
501         wrptr = buf;
502         regval = 0;
503         regval |= (lut->params.selc & TRGSEL_SELC_MASK) << TRGSEL_SELC_SHIFT;
504         regval |= (lut->params.selpresc & TRGSEL_SELPRESC_MASK) << TRGSEL_SELPRESC_SHIFT;
505         write_u8_inc(&wrptr, regval);
506         regval = 0;
507         regval |= (lut->params.selinc & TRGSEL_SELINC_MASK) << TRGSEL_SELINC_SHIFT;
508         regval |= (lut->params.selres & TRGSEL_SELRES_MASK) << TRGSEL_SELRES_SHIFT;
509         regval |= (lut->params.sela & TRGSEL_SELA_MASK) << TRGSEL_SELA_SHIFT;
510         regval |= (lut->params.selb & TRGSEL_SELB_MASK) << TRGSEL_SELB_SHIFT;
511         write_u8_inc(&wrptr, regval);
512         write_u16be_inc(&wrptr, lut->params.cmpb);
513         write_u16be_inc(&wrptr, lut->params.cmpa);
514         ret = sigma_write_register(devc, WRITE_TRIGGER_SELECT, buf, wrptr - buf);
515         if (ret != SR_OK)
516                 return ret;
517
518         return SR_OK;
519 }
520
521 /*
522  * See Xilinx UG332 for Spartan-3 FPGA configuration. The SIGMA device
523  * uses FTDI bitbang mode for netlist download in slave serial mode.
524  * (LATER: The OMEGA device's cable contains a more capable FTDI chip
525  * and uses MPSSE mode for bitbang. -- Can we also use FT232H in FT245
526  * compatible bitbang mode? For maximum code re-use and reduced libftdi
527  * dependency? See section 3.5.5 of FT232H: D0 clk, D1 data (out), D2
528  * data (in), D3 select, D4-7 GPIOL. See section 3.5.7 for MCU FIFO.)
529  *
530  * 750kbps rate (four times the speed of sigmalogan) works well for
531  * netlist download. All pins except INIT_B are output pins during
532  * configuration download.
533  *
534  * Some pins are inverted as a byproduct of level shifting circuitry.
535  * That's why high CCLK level (from the cable's point of view) is idle
536  * from the FPGA's perspective.
537  *
538  * The vendor's literature discusses a "suicide sequence" which ends
539  * regular FPGA execution and should be sent before entering bitbang
540  * mode and sending configuration data. Set D7 and toggle D2, D3, D4
541  * a few times.
542  */
543 #define BB_PIN_CCLK (1 << 0) /* D0, CCLK */
544 #define BB_PIN_PROG (1 << 1) /* D1, PROG */
545 #define BB_PIN_D2   (1 << 2) /* D2, (part of) SUICIDE */
546 #define BB_PIN_D3   (1 << 3) /* D3, (part of) SUICIDE */
547 #define BB_PIN_D4   (1 << 4) /* D4, (part of) SUICIDE (unused?) */
548 #define BB_PIN_INIT (1 << 5) /* D5, INIT, input pin */
549 #define BB_PIN_DIN  (1 << 6) /* D6, DIN */
550 #define BB_PIN_D7   (1 << 7) /* D7, (part of) SUICIDE */
551
552 #define BB_BITRATE (750 * 1000)
553 #define BB_PINMASK (0xff & ~BB_PIN_INIT)
554
555 /*
556  * Initiate slave serial mode for configuration download. Which is done
557  * by pulsing PROG_B and sensing INIT_B. Make sure CCLK is idle before
558  * initiating the configuration download.
559  *
560  * Run a "suicide sequence" first to terminate the regular FPGA operation
561  * before reconfiguration. The FTDI cable is single channel, and shares
562  * pins which are used for data communication in FIFO mode with pins that
563  * are used for FPGA configuration in bitbang mode. Hardware defaults for
564  * unconfigured hardware, and runtime conditions after FPGA configuration
565  * need to cooperate such that re-configuration of the FPGA can start.
566  */
567 static int sigma_fpga_init_bitbang_once(struct dev_context *devc)
568 {
569         const uint8_t suicide[] = {
570                 BB_PIN_D7 | BB_PIN_D2,
571                 BB_PIN_D7 | BB_PIN_D2,
572                 BB_PIN_D7 |           BB_PIN_D3,
573                 BB_PIN_D7 | BB_PIN_D2,
574                 BB_PIN_D7 |           BB_PIN_D3,
575                 BB_PIN_D7 | BB_PIN_D2,
576                 BB_PIN_D7 |           BB_PIN_D3,
577                 BB_PIN_D7 | BB_PIN_D2,
578         };
579         const uint8_t init_array[] = {
580                 BB_PIN_CCLK,
581                 BB_PIN_CCLK | BB_PIN_PROG,
582                 BB_PIN_CCLK | BB_PIN_PROG,
583                 BB_PIN_CCLK,
584                 BB_PIN_CCLK,
585                 BB_PIN_CCLK,
586                 BB_PIN_CCLK,
587                 BB_PIN_CCLK,
588                 BB_PIN_CCLK,
589                 BB_PIN_CCLK,
590         };
591         int retries, ret;
592         uint8_t data;
593
594         /* Section 2. part 1), do the FPGA suicide. */
595         ret = SR_OK;
596         ret |= sigma_write_sr(devc, suicide, sizeof(suicide));
597         ret |= sigma_write_sr(devc, suicide, sizeof(suicide));
598         ret |= sigma_write_sr(devc, suicide, sizeof(suicide));
599         ret |= sigma_write_sr(devc, suicide, sizeof(suicide));
600         if (ret != SR_OK)
601                 return SR_ERR_IO;
602         g_usleep(10 * 1000);
603
604         /* Section 2. part 2), pulse PROG. */
605         ret = sigma_write_sr(devc, init_array, sizeof(init_array));
606         if (ret != SR_OK)
607                 return ret;
608         g_usleep(10 * 1000);
609         ftdi_usb_purge_buffers(&devc->ftdi.ctx);
610
611         /*
612          * Wait until the FPGA asserts INIT_B. Check in a maximum number
613          * of bursts with a given delay between them. Read as many pin
614          * capture results as the combination of FTDI chip and FTID lib
615          * may provide. Cope with absence of pin capture data in a cycle.
616          * This approach shall result in fast reponse in case of success,
617          * low cost of execution during wait, reliable error handling in
618          * the transport layer, and robust response to failure or absence
619          * of result data (hardware inactivity after stimulus).
620          */
621         retries = 10;
622         while (retries--) {
623                 do {
624                         ret = sigma_read_raw(devc, &data, sizeof(data));
625                         if (ret < 0)
626                                 return SR_ERR_IO;
627                         if (ret == sizeof(data) && (data & BB_PIN_INIT))
628                                 return SR_OK;
629                 } while (ret == sizeof(data));
630                 if (retries)
631                         g_usleep(10 * 1000);
632         }
633
634         return SR_ERR_TIMEOUT;
635 }
636
637 /*
638  * This is belt and braces. Re-run the bitbang initiation sequence a few
639  * times should first attempts fail. Failure is rare but can happen (was
640  * observed during driver development).
641  */
642 static int sigma_fpga_init_bitbang(struct dev_context *devc)
643 {
644         size_t retries;
645         int ret;
646
647         retries = 10;
648         while (retries--) {
649                 ret = sigma_fpga_init_bitbang_once(devc);
650                 if (ret == SR_OK)
651                         return ret;
652                 if (ret != SR_ERR_TIMEOUT)
653                         return ret;
654         }
655         return ret;
656 }
657
658 /*
659  * Configure the FPGA for logic-analyzer mode.
660  */
661 static int sigma_fpga_init_la(struct dev_context *devc)
662 {
663         uint8_t buf[20], *wrptr;
664         uint8_t data_55, data_aa, mode;
665         uint8_t result[3];
666         const uint8_t *rdptr;
667         int ret;
668
669         wrptr = buf;
670
671         /* Read ID register. */
672         write_u8_inc(&wrptr, REG_ADDR_LOW | LO4(READ_ID));
673         write_u8_inc(&wrptr, REG_ADDR_HIGH | HI4(READ_ID));
674         write_u8_inc(&wrptr, REG_READ_ADDR);
675
676         /* Write 0x55 to scratch register, read back. */
677         data_55 = 0x55;
678         write_u8_inc(&wrptr, REG_ADDR_LOW | LO4(WRITE_TEST));
679         write_u8_inc(&wrptr, REG_ADDR_HIGH | HI4(WRITE_TEST));
680         write_u8_inc(&wrptr, REG_DATA_LOW | LO4(data_55));
681         write_u8_inc(&wrptr, REG_DATA_HIGH_WRITE | HI4(data_55));
682         write_u8_inc(&wrptr, REG_READ_ADDR);
683
684         /* Write 0xaa to scratch register, read back. */
685         data_aa = 0xaa;
686         write_u8_inc(&wrptr, REG_ADDR_LOW | LO4(WRITE_TEST));
687         write_u8_inc(&wrptr, REG_ADDR_HIGH | HI4(WRITE_TEST));
688         write_u8_inc(&wrptr, REG_DATA_LOW | LO4(data_aa));
689         write_u8_inc(&wrptr, REG_DATA_HIGH_WRITE | HI4(data_aa));
690         write_u8_inc(&wrptr, REG_READ_ADDR);
691
692         /* Initiate SDRAM initialization in mode register. */
693         mode = WMR_SDRAMINIT;
694         write_u8_inc(&wrptr, REG_ADDR_LOW | LO4(WRITE_MODE));
695         write_u8_inc(&wrptr, REG_ADDR_HIGH | HI4(WRITE_MODE));
696         write_u8_inc(&wrptr, REG_DATA_LOW | LO4(mode));
697         write_u8_inc(&wrptr, REG_DATA_HIGH_WRITE | HI4(mode));
698
699         /*
700          * Send the command sequence which contains 3 READ requests.
701          * Expect to see the corresponding 3 response bytes.
702          */
703         ret = sigma_write_sr(devc, buf, wrptr - buf);
704         if (ret != SR_OK) {
705                 sr_err("Could not request LA start response.");
706                 return ret;
707         }
708         ret = sigma_read_sr(devc, result, ARRAY_SIZE(result));
709         if (ret != SR_OK) {
710                 sr_err("Could not receive LA start response.");
711                 return SR_ERR_IO;
712         }
713         rdptr = result;
714         if (read_u8_inc(&rdptr) != 0xa6) {
715                 sr_err("Unexpected ID response.");
716                 return SR_ERR_DATA;
717         }
718         if (read_u8_inc(&rdptr) != data_55) {
719                 sr_err("Unexpected scratch read-back (55).");
720                 return SR_ERR_DATA;
721         }
722         if (read_u8_inc(&rdptr) != data_aa) {
723                 sr_err("Unexpected scratch read-back (aa).");
724                 return SR_ERR_DATA;
725         }
726
727         return SR_OK;
728 }
729
730 /*
731  * Read the firmware from a file and transform it into a series of bitbang
732  * pulses used to program the FPGA. Note that the *bb_cmd must be free()'d
733  * by the caller of this function.
734  */
735 static int sigma_fw_2_bitbang(struct sr_context *ctx, const char *name,
736         uint8_t **bb_cmd, gsize *bb_cmd_size)
737 {
738         uint8_t *firmware;
739         size_t file_size;
740         uint8_t *p;
741         size_t l;
742         uint32_t imm;
743         size_t bb_size;
744         uint8_t *bb_stream, *bbs, byte, mask, v;
745
746         /* Retrieve the on-disk firmware file content. */
747         firmware = sr_resource_load(ctx, SR_RESOURCE_FIRMWARE, name,
748                 &file_size, SIGMA_FIRMWARE_SIZE_LIMIT);
749         if (!firmware)
750                 return SR_ERR_IO;
751
752         /* Unscramble the file content (XOR with "random" sequence). */
753         p = firmware;
754         l = file_size;
755         imm = 0x3f6df2ab;
756         while (l--) {
757                 imm = (imm + 0xa853753) % 177 + (imm * 0x8034052);
758                 *p++ ^= imm & 0xff;
759         }
760
761         /*
762          * Generate a sequence of bitbang samples. With two samples per
763          * FPGA configuration bit, providing the level for the DIN signal
764          * as well as two edges for CCLK. See Xilinx UG332 for details
765          * ("slave serial" mode).
766          *
767          * Note that CCLK is inverted in hardware. That's why the
768          * respective bit is first set and then cleared in the bitbang
769          * sample sets. So that the DIN level will be stable when the
770          * data gets sampled at the rising CCLK edge, and the signals'
771          * setup time constraint will be met.
772          *
773          * The caller will put the FPGA into download mode, will send
774          * the bitbang samples, and release the allocated memory.
775          */
776         bb_size = file_size * 8 * 2;
777         bb_stream = g_try_malloc(bb_size);
778         if (!bb_stream) {
779                 sr_err("Memory allocation failed during firmware upload.");
780                 g_free(firmware);
781                 return SR_ERR_MALLOC;
782         }
783         bbs = bb_stream;
784         p = firmware;
785         l = file_size;
786         while (l--) {
787                 byte = *p++;
788                 mask = 0x80;
789                 while (mask) {
790                         v = (byte & mask) ? BB_PIN_DIN : 0;
791                         mask >>= 1;
792                         *bbs++ = v | BB_PIN_CCLK;
793                         *bbs++ = v;
794                 }
795         }
796         g_free(firmware);
797
798         /* The transformation completed successfully, return the result. */
799         *bb_cmd = bb_stream;
800         *bb_cmd_size = bb_size;
801
802         return SR_OK;
803 }
804
805 static int upload_firmware(struct sr_context *ctx, struct dev_context *devc,
806         enum sigma_firmware_idx firmware_idx)
807 {
808         int ret;
809         uint8_t *buf;
810         uint8_t pins;
811         size_t buf_size;
812         const char *firmware;
813
814         /* Check for valid firmware file selection. */
815         if (firmware_idx >= ARRAY_SIZE(firmware_files))
816                 return SR_ERR_ARG;
817         firmware = firmware_files[firmware_idx];
818         if (!firmware || !*firmware)
819                 return SR_ERR_ARG;
820
821         /* Avoid downloading the same firmware multiple times. */
822         if (devc->firmware_idx == firmware_idx) {
823                 sr_info("Not uploading firmware file '%s' again.", firmware);
824                 return SR_OK;
825         }
826
827         devc->state.state = SIGMA_CONFIG;
828
829         /* Set the cable to bitbang mode. */
830         ret = ftdi_set_bitmode(&devc->ftdi.ctx, BB_PINMASK, BITMODE_BITBANG);
831         if (ret < 0) {
832                 sr_err("Could not setup cable mode for upload: %s",
833                         ftdi_get_error_string(&devc->ftdi.ctx));
834                 return SR_ERR;
835         }
836         ret = ftdi_set_baudrate(&devc->ftdi.ctx, BB_BITRATE);
837         if (ret < 0) {
838                 sr_err("Could not setup bitrate for upload: %s",
839                         ftdi_get_error_string(&devc->ftdi.ctx));
840                 return SR_ERR;
841         }
842
843         /* Initiate FPGA configuration mode. */
844         ret = sigma_fpga_init_bitbang(devc);
845         if (ret) {
846                 sr_err("Could not initiate firmware upload to hardware");
847                 return ret;
848         }
849
850         /* Prepare wire format of the firmware image. */
851         ret = sigma_fw_2_bitbang(ctx, firmware, &buf, &buf_size);
852         if (ret != SR_OK) {
853                 sr_err("Could not prepare file %s for upload.", firmware);
854                 return ret;
855         }
856
857         /* Write the FPGA netlist to the cable. */
858         sr_info("Uploading firmware file '%s'.", firmware);
859         ret = sigma_write_sr(devc, buf, buf_size);
860         g_free(buf);
861         if (ret != SR_OK) {
862                 sr_err("Could not upload firmware file '%s'.", firmware);
863                 return ret;
864         }
865
866         /* Leave bitbang mode and discard pending input data. */
867         ret = ftdi_set_bitmode(&devc->ftdi.ctx, 0, BITMODE_RESET);
868         if (ret < 0) {
869                 sr_err("Could not setup cable mode after upload: %s",
870                         ftdi_get_error_string(&devc->ftdi.ctx));
871                 return SR_ERR;
872         }
873         ftdi_usb_purge_buffers(&devc->ftdi.ctx);
874         while (sigma_read_raw(devc, &pins, sizeof(pins)) > 0)
875                 ;
876
877         /* Initialize the FPGA for logic-analyzer mode. */
878         ret = sigma_fpga_init_la(devc);
879         if (ret != SR_OK) {
880                 sr_err("Hardware response after firmware upload failed.");
881                 return ret;
882         }
883
884         /* Keep track of successful firmware download completion. */
885         devc->state.state = SIGMA_IDLE;
886         devc->firmware_idx = firmware_idx;
887         sr_info("Firmware uploaded.");
888
889         return SR_OK;
890 }
891
892 /*
893  * The driver supports user specified time or sample count limits. The
894  * device's hardware supports neither, and hardware compression prevents
895  * reliable detection of "fill levels" (currently reached sample counts)
896  * from register values during acquisition. That's why the driver needs
897  * to apply some heuristics:
898  *
899  * - The (optional) sample count limit and the (normalized) samplerate
900  *   get mapped to an estimated duration for these samples' acquisition.
901  * - The (optional) time limit gets checked as well. The lesser of the
902  *   two limits will terminate the data acquisition phase. The exact
903  *   sample count limit gets enforced in session feed submission paths.
904  * - Some slack needs to be given to account for hardware pipelines as
905  *   well as late storage of last chunks after compression thresholds
906  *   are tripped. The resulting data set will span at least the caller
907  *   specified period of time, which shall be perfectly acceptable.
908  *
909  * With RLE compression active, up to 64K sample periods can pass before
910  * a cluster accumulates. Which translates to 327ms at 200kHz. Add two
911  * times that period for good measure, one is not enough to flush the
912  * hardware pipeline (observation from an earlier experiment).
913  */
914 SR_PRIV int sigma_set_acquire_timeout(struct dev_context *devc)
915 {
916         int ret;
917         GVariant *data;
918         uint64_t user_count, user_msecs;
919         uint64_t worst_cluster_time_ms;
920         uint64_t count_msecs, acquire_msecs;
921
922         sr_sw_limits_init(&devc->acq_limits);
923
924         /* Get sample count limit, convert to msecs. */
925         ret = sr_sw_limits_config_get(&devc->cfg_limits,
926                 SR_CONF_LIMIT_SAMPLES, &data);
927         if (ret != SR_OK)
928                 return ret;
929         user_count = g_variant_get_uint64(data);
930         g_variant_unref(data);
931         count_msecs = 0;
932         if (user_count)
933                 count_msecs = 1000 * user_count / devc->samplerate + 1;
934
935         /* Get time limit, which is in msecs. */
936         ret = sr_sw_limits_config_get(&devc->cfg_limits,
937                 SR_CONF_LIMIT_MSEC, &data);
938         if (ret != SR_OK)
939                 return ret;
940         user_msecs = g_variant_get_uint64(data);
941         g_variant_unref(data);
942
943         /* Get the lesser of them, with both being optional. */
944         acquire_msecs = ~0ull;
945         if (user_count && count_msecs < acquire_msecs)
946                 acquire_msecs = count_msecs;
947         if (user_msecs && user_msecs < acquire_msecs)
948                 acquire_msecs = user_msecs;
949         if (acquire_msecs == ~0ull)
950                 return SR_OK;
951
952         /* Add some slack, and use that timeout for acquisition. */
953         worst_cluster_time_ms = 1000 * 65536 / devc->samplerate;
954         acquire_msecs += 2 * worst_cluster_time_ms;
955         data = g_variant_new_uint64(acquire_msecs);
956         ret = sr_sw_limits_config_set(&devc->acq_limits,
957                 SR_CONF_LIMIT_MSEC, data);
958         g_variant_unref(data);
959         if (ret != SR_OK)
960                 return ret;
961
962         sr_sw_limits_acquisition_start(&devc->acq_limits);
963         return SR_OK;
964 }
965
966 /*
967  * Check whether a caller specified samplerate matches the device's
968  * hardware constraints (can be used for acquisition). Optionally yield
969  * a value that approximates the original spec.
970  *
971  * This routine assumes that input specs are in the 200kHz to 200MHz
972  * range of supported rates, and callers typically want to normalize a
973  * given value to the hardware capabilities. Values in the 50MHz range
974  * get rounded up by default, to avoid a more expensive check for the
975  * closest match, while higher sampling rate is always desirable during
976  * measurement. Input specs which exactly match hardware capabilities
977  * remain unaffected. Because 100/200MHz rates also limit the number of
978  * available channels, they are not suggested by this routine, instead
979  * callers need to pick them consciously.
980  */
981 SR_PRIV int sigma_normalize_samplerate(uint64_t want_rate, uint64_t *have_rate)
982 {
983         uint64_t div, rate;
984
985         /* Accept exact matches for 100/200MHz. */
986         if (want_rate == SR_MHZ(200) || want_rate == SR_MHZ(100)) {
987                 if (have_rate)
988                         *have_rate = want_rate;
989                 return SR_OK;
990         }
991
992         /* Accept 200kHz to 50MHz range, and map to near value. */
993         if (want_rate >= SR_KHZ(200) && want_rate <= SR_MHZ(50)) {
994                 div = SR_MHZ(50) / want_rate;
995                 rate = SR_MHZ(50) / div;
996                 if (have_rate)
997                         *have_rate = rate;
998                 return SR_OK;
999         }
1000
1001         return SR_ERR_ARG;
1002 }
1003
1004 SR_PRIV uint64_t sigma_get_samplerate(const struct sr_dev_inst *sdi)
1005 {
1006         /* TODO Retrieve value from hardware. */
1007         (void)sdi;
1008         return samplerates[0];
1009 }
1010
1011 SR_PRIV int sigma_set_samplerate(const struct sr_dev_inst *sdi)
1012 {
1013         struct dev_context *devc;
1014         struct drv_context *drvc;
1015         uint64_t samplerate;
1016         int ret;
1017         int num_channels;
1018
1019         devc = sdi->priv;
1020         drvc = sdi->driver->context;
1021
1022         /* Accept any caller specified rate which the hardware supports. */
1023         ret = sigma_normalize_samplerate(devc->samplerate, &samplerate);
1024         if (ret != SR_OK)
1025                 return ret;
1026
1027         /*
1028          * Depending on the samplerates of 200/100/50- MHz, specific
1029          * firmware is required and higher rates might limit the set
1030          * of available channels.
1031          */
1032         num_channels = devc->num_channels;
1033         if (samplerate <= SR_MHZ(50)) {
1034                 ret = upload_firmware(drvc->sr_ctx, devc, SIGMA_FW_50MHZ);
1035                 num_channels = 16;
1036         } else if (samplerate == SR_MHZ(100)) {
1037                 ret = upload_firmware(drvc->sr_ctx, devc, SIGMA_FW_100MHZ);
1038                 num_channels = 8;
1039         } else if (samplerate == SR_MHZ(200)) {
1040                 ret = upload_firmware(drvc->sr_ctx, devc, SIGMA_FW_200MHZ);
1041                 num_channels = 4;
1042         }
1043
1044         /*
1045          * The samplerate affects the number of available logic channels
1046          * as well as a sample memory layout detail (the number of samples
1047          * which the device will communicate within an "event").
1048          */
1049         if (ret == SR_OK) {
1050                 devc->num_channels = num_channels;
1051                 devc->samples_per_event = 16 / devc->num_channels;
1052         }
1053
1054         return ret;
1055 }
1056
1057 /*
1058  * Arrange for a session feed submit buffer. A queue where a number of
1059  * samples gets accumulated to reduce the number of send calls. Which
1060  * also enforces an optional sample count limit for data acquisition.
1061  *
1062  * The buffer holds up to CHUNK_SIZE bytes. The unit size is fixed (the
1063  * driver provides a fixed channel layout regardless of samplerate).
1064  */
1065
1066 #define CHUNK_SIZE      (4 * 1024 * 1024)
1067
1068 struct submit_buffer {
1069         size_t unit_size;
1070         size_t max_samples, curr_samples;
1071         uint8_t *sample_data;
1072         uint8_t *write_pointer;
1073         struct sr_dev_inst *sdi;
1074         struct sr_datafeed_packet packet;
1075         struct sr_datafeed_logic logic;
1076 };
1077
1078 static int alloc_submit_buffer(struct sr_dev_inst *sdi)
1079 {
1080         struct dev_context *devc;
1081         struct submit_buffer *buffer;
1082         size_t size;
1083
1084         devc = sdi->priv;
1085
1086         buffer = g_malloc0(sizeof(*buffer));
1087         devc->buffer = buffer;
1088
1089         buffer->unit_size = sizeof(uint16_t);
1090         size = CHUNK_SIZE;
1091         size /= buffer->unit_size;
1092         buffer->max_samples = size;
1093         size *= buffer->unit_size;
1094         buffer->sample_data = g_try_malloc0(size);
1095         if (!buffer->sample_data)
1096                 return SR_ERR_MALLOC;
1097         buffer->write_pointer = buffer->sample_data;
1098         sr_sw_limits_init(&devc->feed_limits);
1099
1100         buffer->sdi = sdi;
1101         memset(&buffer->logic, 0, sizeof(buffer->logic));
1102         buffer->logic.unitsize = buffer->unit_size;
1103         buffer->logic.data = buffer->sample_data;
1104         memset(&buffer->packet, 0, sizeof(buffer->packet));
1105         buffer->packet.type = SR_DF_LOGIC;
1106         buffer->packet.payload = &buffer->logic;
1107
1108         return SR_OK;
1109 }
1110
1111 static int setup_submit_limit(struct dev_context *devc)
1112 {
1113         struct sr_sw_limits *limits;
1114         int ret;
1115         GVariant *data;
1116         uint64_t total;
1117
1118         limits = &devc->feed_limits;
1119
1120         ret = sr_sw_limits_config_get(&devc->cfg_limits,
1121                 SR_CONF_LIMIT_SAMPLES, &data);
1122         if (ret != SR_OK)
1123                 return ret;
1124         total = g_variant_get_uint64(data);
1125         g_variant_unref(data);
1126
1127         sr_sw_limits_init(limits);
1128         if (total) {
1129                 data = g_variant_new_uint64(total);
1130                 ret = sr_sw_limits_config_set(limits,
1131                         SR_CONF_LIMIT_SAMPLES, data);
1132                 g_variant_unref(data);
1133                 if (ret != SR_OK)
1134                         return ret;
1135         }
1136
1137         sr_sw_limits_acquisition_start(limits);
1138
1139         return SR_OK;
1140 }
1141
1142 static void free_submit_buffer(struct dev_context *devc)
1143 {
1144         struct submit_buffer *buffer;
1145
1146         if (!devc)
1147                 return;
1148
1149         buffer = devc->buffer;
1150         if (!buffer)
1151                 return;
1152         devc->buffer = NULL;
1153
1154         g_free(buffer->sample_data);
1155         g_free(buffer);
1156 }
1157
1158 static int flush_submit_buffer(struct dev_context *devc)
1159 {
1160         struct submit_buffer *buffer;
1161         int ret;
1162
1163         buffer = devc->buffer;
1164
1165         /* Is queued sample data available? */
1166         if (!buffer->curr_samples)
1167                 return SR_OK;
1168
1169         /* Submit to the session feed. */
1170         buffer->logic.length = buffer->curr_samples * buffer->unit_size;
1171         ret = sr_session_send(buffer->sdi, &buffer->packet);
1172         if (ret != SR_OK)
1173                 return ret;
1174
1175         /* Rewind queue position. */
1176         buffer->curr_samples = 0;
1177         buffer->write_pointer = buffer->sample_data;
1178
1179         return SR_OK;
1180 }
1181
1182 static int addto_submit_buffer(struct dev_context *devc,
1183         uint16_t sample, size_t count)
1184 {
1185         struct submit_buffer *buffer;
1186         struct sr_sw_limits *limits;
1187         int ret;
1188
1189         buffer = devc->buffer;
1190         limits = &devc->feed_limits;
1191         if (sr_sw_limits_check(limits))
1192                 count = 0;
1193
1194         /*
1195          * Individually accumulate and check each sample, such that
1196          * accumulation between flushes won't exceed local storage, and
1197          * enforcement of user specified limits is exact.
1198          */
1199         while (count--) {
1200                 write_u16le_inc(&buffer->write_pointer, sample);
1201                 buffer->curr_samples++;
1202                 if (buffer->curr_samples == buffer->max_samples) {
1203                         ret = flush_submit_buffer(devc);
1204                         if (ret != SR_OK)
1205                                 return ret;
1206                 }
1207                 sr_sw_limits_update_samples_read(limits, 1);
1208                 if (sr_sw_limits_check(limits))
1209                         break;
1210         }
1211
1212         return SR_OK;
1213 }
1214
1215 /*
1216  * In 100 and 200 MHz mode, only a single pin rising/falling can be
1217  * set as trigger. In other modes, two rising/falling triggers can be set,
1218  * in addition to value/mask trigger for any number of channels.
1219  *
1220  * The Sigma supports complex triggers using boolean expressions, but this
1221  * has not been implemented yet.
1222  */
1223 SR_PRIV int sigma_convert_trigger(const struct sr_dev_inst *sdi)
1224 {
1225         struct dev_context *devc;
1226         struct sr_trigger *trigger;
1227         struct sr_trigger_stage *stage;
1228         struct sr_trigger_match *match;
1229         const GSList *l, *m;
1230         int channelbit, trigger_set;
1231
1232         devc = sdi->priv;
1233         memset(&devc->trigger, 0, sizeof(devc->trigger));
1234         trigger = sr_session_trigger_get(sdi->session);
1235         if (!trigger)
1236                 return SR_OK;
1237
1238         trigger_set = 0;
1239         for (l = trigger->stages; l; l = l->next) {
1240                 stage = l->data;
1241                 for (m = stage->matches; m; m = m->next) {
1242                         match = m->data;
1243                         /* Ignore disabled channels with a trigger. */
1244                         if (!match->channel->enabled)
1245                                 continue;
1246                         channelbit = 1 << match->channel->index;
1247                         if (devc->samplerate >= SR_MHZ(100)) {
1248                                 /* Fast trigger support. */
1249                                 if (trigger_set) {
1250                                         sr_err("100/200MHz modes limited to single trigger pin.");
1251                                         return SR_ERR;
1252                                 }
1253                                 if (match->match == SR_TRIGGER_FALLING) {
1254                                         devc->trigger.fallingmask |= channelbit;
1255                                 } else if (match->match == SR_TRIGGER_RISING) {
1256                                         devc->trigger.risingmask |= channelbit;
1257                                 } else {
1258                                         sr_err("100/200MHz modes limited to edge trigger.");
1259                                         return SR_ERR;
1260                                 }
1261
1262                                 trigger_set++;
1263                         } else {
1264                                 /* Simple trigger support (event). */
1265                                 if (match->match == SR_TRIGGER_ONE) {
1266                                         devc->trigger.simplevalue |= channelbit;
1267                                         devc->trigger.simplemask |= channelbit;
1268                                 } else if (match->match == SR_TRIGGER_ZERO) {
1269                                         devc->trigger.simplevalue &= ~channelbit;
1270                                         devc->trigger.simplemask |= channelbit;
1271                                 } else if (match->match == SR_TRIGGER_FALLING) {
1272                                         devc->trigger.fallingmask |= channelbit;
1273                                         trigger_set++;
1274                                 } else if (match->match == SR_TRIGGER_RISING) {
1275                                         devc->trigger.risingmask |= channelbit;
1276                                         trigger_set++;
1277                                 }
1278
1279                                 /*
1280                                  * Actually, Sigma supports 2 rising/falling triggers,
1281                                  * but they are ORed and the current trigger syntax
1282                                  * does not permit ORed triggers.
1283                                  */
1284                                 if (trigger_set > 1) {
1285                                         sr_err("Limited to 1 edge trigger.");
1286                                         return SR_ERR;
1287                                 }
1288                         }
1289                 }
1290         }
1291
1292         return SR_OK;
1293 }
1294
1295 /* Software trigger to determine exact trigger position. */
1296 static int get_trigger_offset(uint8_t *samples, uint16_t last_sample,
1297         struct sigma_trigger *t)
1298 {
1299         const uint8_t *rdptr;
1300         int i;
1301         uint16_t sample;
1302
1303         rdptr = samples;
1304         sample = 0;
1305         for (i = 0; i < 8; i++) {
1306                 if (i > 0)
1307                         last_sample = sample;
1308                 sample = read_u16le_inc(&rdptr);
1309
1310                 /* Simple triggers. */
1311                 if ((sample & t->simplemask) != t->simplevalue)
1312                         continue;
1313
1314                 /* Rising edge. */
1315                 if (((last_sample & t->risingmask) != 0) ||
1316                     ((sample & t->risingmask) != t->risingmask))
1317                         continue;
1318
1319                 /* Falling edge. */
1320                 if ((last_sample & t->fallingmask) != t->fallingmask ||
1321                     (sample & t->fallingmask) != 0)
1322                         continue;
1323
1324                 break;
1325         }
1326
1327         /* If we did not match, return original trigger pos. */
1328         return i & 0x7;
1329 }
1330
1331 static gboolean sample_matches_trigger(struct dev_context *devc, uint16_t sample)
1332 {
1333         /* TODO
1334          * Check whether the combination of this very sample and the
1335          * previous state match the configured trigger condition. This
1336          * improves the resolution of the trigger marker's position.
1337          * The hardware provided position is coarse, and may point to
1338          * a position before the actual match.
1339          *
1340          * See the previous get_trigger_offset() implementation. This
1341          * code needs to get re-used here.
1342          */
1343         (void)devc;
1344         (void)sample;
1345         (void)get_trigger_offset;
1346
1347         return FALSE;
1348 }
1349
1350 static int check_and_submit_sample(struct dev_context *devc,
1351         uint16_t sample, size_t count, gboolean check_trigger)
1352 {
1353         gboolean triggered;
1354         int ret;
1355
1356         triggered = check_trigger && sample_matches_trigger(devc, sample);
1357         if (triggered) {
1358                 ret = flush_submit_buffer(devc);
1359                 if (ret != SR_OK)
1360                         return ret;
1361                 ret = std_session_send_df_trigger(devc->buffer->sdi);
1362                 if (ret != SR_OK)
1363                         return ret;
1364         }
1365
1366         ret = addto_submit_buffer(devc, sample, count);
1367         if (ret != SR_OK)
1368                 return ret;
1369
1370         return SR_OK;
1371 }
1372
1373 /*
1374  * Return the timestamp of "DRAM cluster".
1375  */
1376 static uint16_t sigma_dram_cluster_ts(struct sigma_dram_cluster *cluster)
1377 {
1378         return read_u16le((const uint8_t *)&cluster->timestamp);
1379 }
1380
1381 /*
1382  * Return one 16bit data entity of a DRAM cluster at the specified index.
1383  */
1384 static uint16_t sigma_dram_cluster_data(struct sigma_dram_cluster *cl, int idx)
1385 {
1386         return read_u16le((const uint8_t *)&cl->samples[idx]);
1387 }
1388
1389 /*
1390  * Deinterlace sample data that was retrieved at 100MHz samplerate.
1391  * One 16bit item contains two samples of 8bits each. The bits of
1392  * multiple samples are interleaved.
1393  */
1394 static uint16_t sigma_deinterlace_100mhz_data(uint16_t indata, int idx)
1395 {
1396         uint16_t outdata;
1397
1398         indata >>= idx;
1399         outdata = 0;
1400         outdata |= (indata >> (0 * 2 - 0)) & (1 << 0);
1401         outdata |= (indata >> (1 * 2 - 1)) & (1 << 1);
1402         outdata |= (indata >> (2 * 2 - 2)) & (1 << 2);
1403         outdata |= (indata >> (3 * 2 - 3)) & (1 << 3);
1404         outdata |= (indata >> (4 * 2 - 4)) & (1 << 4);
1405         outdata |= (indata >> (5 * 2 - 5)) & (1 << 5);
1406         outdata |= (indata >> (6 * 2 - 6)) & (1 << 6);
1407         outdata |= (indata >> (7 * 2 - 7)) & (1 << 7);
1408         return outdata;
1409 }
1410
1411 /*
1412  * Deinterlace sample data that was retrieved at 200MHz samplerate.
1413  * One 16bit item contains four samples of 4bits each. The bits of
1414  * multiple samples are interleaved.
1415  */
1416 static uint16_t sigma_deinterlace_200mhz_data(uint16_t indata, int idx)
1417 {
1418         uint16_t outdata;
1419
1420         indata >>= idx;
1421         outdata = 0;
1422         outdata |= (indata >> (0 * 4 - 0)) & (1 << 0);
1423         outdata |= (indata >> (1 * 4 - 1)) & (1 << 1);
1424         outdata |= (indata >> (2 * 4 - 2)) & (1 << 2);
1425         outdata |= (indata >> (3 * 4 - 3)) & (1 << 3);
1426         return outdata;
1427 }
1428
1429 static void sigma_decode_dram_cluster(struct dev_context *devc,
1430         struct sigma_dram_cluster *dram_cluster,
1431         size_t events_in_cluster, gboolean triggered)
1432 {
1433         struct sigma_state *ss;
1434         uint16_t tsdiff, ts, sample, item16;
1435         unsigned int i;
1436
1437         if (!devc->use_triggers || !ASIX_SIGMA_WITH_TRIGGER)
1438                 triggered = FALSE;
1439
1440         /*
1441          * If this cluster is not adjacent to the previously received
1442          * cluster, then send the appropriate number of samples with the
1443          * previous values to the sigrok session. This "decodes RLE".
1444          *
1445          * These samples cannot match the trigger since they just repeat
1446          * the previously submitted data pattern. (This assumption holds
1447          * for simple level and edge triggers. It would not for timed or
1448          * counted conditions, which currently are not supported.)
1449          */
1450         ss = &devc->state;
1451         ts = sigma_dram_cluster_ts(dram_cluster);
1452         tsdiff = ts - ss->lastts;
1453         if (tsdiff > 0) {
1454                 size_t count;
1455                 sample = ss->lastsample;
1456                 count = tsdiff * devc->samples_per_event;
1457                 (void)check_and_submit_sample(devc, sample, count, FALSE);
1458         }
1459         ss->lastts = ts + EVENTS_PER_CLUSTER;
1460
1461         /*
1462          * Grab sample data from the current cluster and prepare their
1463          * submission to the session feed. Handle samplerate dependent
1464          * memory layout of sample data. Accumulation of data chunks
1465          * before submission is transparent to this code path, specific
1466          * buffer depth is neither assumed nor required here.
1467          */
1468         sample = 0;
1469         for (i = 0; i < events_in_cluster; i++) {
1470                 item16 = sigma_dram_cluster_data(dram_cluster, i);
1471                 if (devc->samplerate == SR_MHZ(200)) {
1472                         sample = sigma_deinterlace_200mhz_data(item16, 0);
1473                         check_and_submit_sample(devc, sample, 1, triggered);
1474                         sample = sigma_deinterlace_200mhz_data(item16, 1);
1475                         check_and_submit_sample(devc, sample, 1, triggered);
1476                         sample = sigma_deinterlace_200mhz_data(item16, 2);
1477                         check_and_submit_sample(devc, sample, 1, triggered);
1478                         sample = sigma_deinterlace_200mhz_data(item16, 3);
1479                         check_and_submit_sample(devc, sample, 1, triggered);
1480                 } else if (devc->samplerate == SR_MHZ(100)) {
1481                         sample = sigma_deinterlace_100mhz_data(item16, 0);
1482                         check_and_submit_sample(devc, sample, 1, triggered);
1483                         sample = sigma_deinterlace_100mhz_data(item16, 1);
1484                         check_and_submit_sample(devc, sample, 1, triggered);
1485                 } else {
1486                         sample = item16;
1487                         check_and_submit_sample(devc, sample, 1, triggered);
1488                 }
1489         }
1490         ss->lastsample = sample;
1491 }
1492
1493 /*
1494  * Decode chunk of 1024 bytes, 64 clusters, 7 events per cluster.
1495  * Each event is 20ns apart, and can contain multiple samples.
1496  *
1497  * For 200 MHz, events contain 4 samples for each channel, spread 5 ns apart.
1498  * For 100 MHz, events contain 2 samples for each channel, spread 10 ns apart.
1499  * For 50 MHz and below, events contain one sample for each channel,
1500  * spread 20 ns apart.
1501  */
1502 static int decode_chunk_ts(struct dev_context *devc,
1503         struct sigma_dram_line *dram_line,
1504         size_t events_in_line, size_t trigger_event)
1505 {
1506         struct sigma_dram_cluster *dram_cluster;
1507         unsigned int clusters_in_line;
1508         unsigned int events_in_cluster;
1509         unsigned int i;
1510         uint32_t trigger_cluster;
1511
1512         clusters_in_line = events_in_line;
1513         clusters_in_line += EVENTS_PER_CLUSTER - 1;
1514         clusters_in_line /= EVENTS_PER_CLUSTER;
1515         trigger_cluster = ~0;
1516
1517         /* Check if trigger is in this chunk. */
1518         if (trigger_event < EVENTS_PER_ROW) {
1519                 if (devc->samplerate <= SR_MHZ(50)) {
1520                         trigger_event -= MIN(EVENTS_PER_CLUSTER - 1,
1521                                              trigger_event);
1522                 }
1523
1524                 /* Find in which cluster the trigger occurred. */
1525                 trigger_cluster = trigger_event / EVENTS_PER_CLUSTER;
1526         }
1527
1528         /* For each full DRAM cluster. */
1529         for (i = 0; i < clusters_in_line; i++) {
1530                 dram_cluster = &dram_line->cluster[i];
1531
1532                 /* The last cluster might not be full. */
1533                 if ((i == clusters_in_line - 1) &&
1534                     (events_in_line % EVENTS_PER_CLUSTER)) {
1535                         events_in_cluster = events_in_line % EVENTS_PER_CLUSTER;
1536                 } else {
1537                         events_in_cluster = EVENTS_PER_CLUSTER;
1538                 }
1539
1540                 sigma_decode_dram_cluster(devc, dram_cluster,
1541                         events_in_cluster, i == trigger_cluster);
1542         }
1543
1544         return SR_OK;
1545 }
1546
1547 static int download_capture(struct sr_dev_inst *sdi)
1548 {
1549         const uint32_t chunks_per_read = 32;
1550
1551         struct dev_context *devc;
1552         struct sigma_dram_line *dram_line;
1553         uint32_t stoppos, triggerpos;
1554         uint8_t modestatus;
1555         uint32_t i;
1556         uint32_t dl_lines_total, dl_lines_curr, dl_lines_done;
1557         uint32_t dl_first_line, dl_line;
1558         uint32_t dl_events_in_line, trigger_event;
1559         uint32_t trg_line, trg_event;
1560         int ret;
1561
1562         devc = sdi->priv;
1563
1564         sr_info("Downloading sample data.");
1565         devc->state.state = SIGMA_DOWNLOAD;
1566
1567         /*
1568          * Ask the hardware to stop data acquisition. Reception of the
1569          * FORCESTOP request makes the hardware "disable RLE" (store
1570          * clusters to DRAM regardless of whether pin state changes) and
1571          * raise the POSTTRIGGERED flag.
1572          */
1573         modestatus = WMR_FORCESTOP | WMR_SDRAMWRITEEN;
1574         ret = sigma_set_register(devc, WRITE_MODE, modestatus);
1575         if (ret != SR_OK)
1576                 return ret;
1577         do {
1578                 ret = sigma_get_register(devc, READ_MODE, &modestatus);
1579                 if (ret != SR_OK) {
1580                         sr_err("Could not poll for post-trigger state.");
1581                         return FALSE;
1582                 }
1583         } while (!(modestatus & RMR_POSTTRIGGERED));
1584
1585         /* Set SDRAM Read Enable. */
1586         ret = sigma_set_register(devc, WRITE_MODE, WMR_SDRAMREADEN);
1587         if (ret != SR_OK)
1588                 return ret;
1589
1590         /* Get the current position. Check if trigger has fired. */
1591         ret = sigma_read_pos(devc, &stoppos, &triggerpos, &modestatus);
1592         if (ret != SR_OK) {
1593                 sr_err("Could not query capture positions/state.");
1594                 return FALSE;
1595         }
1596         trg_line = ~0;
1597         trg_event = ~0;
1598         if (modestatus & RMR_TRIGGERED) {
1599                 trg_line = triggerpos >> ROW_SHIFT;
1600                 trg_event = triggerpos & ROW_MASK;
1601         }
1602
1603         /*
1604          * Determine how many "DRAM lines" of 1024 bytes each we need to
1605          * retrieve from the Sigma hardware, so that we have a complete
1606          * set of samples. Note that the last line need not contain 64
1607          * clusters, it might be partially filled only.
1608          *
1609          * When RMR_ROUND is set, the circular buffer in DRAM has wrapped
1610          * around. Since the status of the very next line is uncertain in
1611          * that case, we skip it and start reading from the next line.
1612          */
1613         dl_first_line = 0;
1614         dl_lines_total = (stoppos >> ROW_SHIFT) + 1;
1615         if (modestatus & RMR_ROUND) {
1616                 dl_first_line = dl_lines_total + 1;
1617                 dl_lines_total = ROW_COUNT - 2;
1618         }
1619         dram_line = g_try_malloc0(chunks_per_read * sizeof(*dram_line));
1620         if (!dram_line)
1621                 return FALSE;
1622         ret = alloc_submit_buffer(sdi);
1623         if (ret != SR_OK)
1624                 return FALSE;
1625         ret = setup_submit_limit(devc);
1626         if (ret != SR_OK)
1627                 return FALSE;
1628         dl_lines_done = 0;
1629         while (dl_lines_total > dl_lines_done) {
1630                 /* We can download only up-to 32 DRAM lines in one go! */
1631                 dl_lines_curr = MIN(chunks_per_read, dl_lines_total - dl_lines_done);
1632
1633                 dl_line = dl_first_line + dl_lines_done;
1634                 dl_line %= ROW_COUNT;
1635                 ret = sigma_read_dram(devc, dl_line, dl_lines_curr,
1636                         (uint8_t *)dram_line);
1637                 if (ret != SR_OK)
1638                         return FALSE;
1639
1640                 /* This is the first DRAM line, so find the initial timestamp. */
1641                 if (dl_lines_done == 0) {
1642                         devc->state.lastts =
1643                                 sigma_dram_cluster_ts(&dram_line[0].cluster[0]);
1644                         devc->state.lastsample = 0;
1645                 }
1646
1647                 for (i = 0; i < dl_lines_curr; i++) {
1648                         /* The last "DRAM line" need not span its full length. */
1649                         dl_events_in_line = EVENTS_PER_ROW;
1650                         if (dl_lines_done + i == dl_lines_total - 1)
1651                                 dl_events_in_line = stoppos & ROW_MASK;
1652
1653                         /* Test if the trigger happened on this line. */
1654                         trigger_event = ~0;
1655                         if (dl_lines_done + i == trg_line)
1656                                 trigger_event = trg_event;
1657
1658                         decode_chunk_ts(devc, dram_line + i,
1659                                 dl_events_in_line, trigger_event);
1660                 }
1661
1662                 dl_lines_done += dl_lines_curr;
1663         }
1664         flush_submit_buffer(devc);
1665         free_submit_buffer(devc);
1666         g_free(dram_line);
1667
1668         std_session_send_df_end(sdi);
1669
1670         devc->state.state = SIGMA_IDLE;
1671         sr_dev_acquisition_stop(sdi);
1672
1673         return TRUE;
1674 }
1675
1676 /*
1677  * Periodically check the Sigma status when in CAPTURE mode. This routine
1678  * checks whether the configured sample count or sample time have passed,
1679  * and will stop acquisition and download the acquired samples.
1680  */
1681 static int sigma_capture_mode(struct sr_dev_inst *sdi)
1682 {
1683         struct dev_context *devc;
1684
1685         devc = sdi->priv;
1686         if (sr_sw_limits_check(&devc->acq_limits))
1687                 return download_capture(sdi);
1688
1689         return TRUE;
1690 }
1691
1692 SR_PRIV int sigma_receive_data(int fd, int revents, void *cb_data)
1693 {
1694         struct sr_dev_inst *sdi;
1695         struct dev_context *devc;
1696
1697         (void)fd;
1698         (void)revents;
1699
1700         sdi = cb_data;
1701         devc = sdi->priv;
1702
1703         if (devc->state.state == SIGMA_IDLE)
1704                 return TRUE;
1705
1706         /*
1707          * When the application has requested to stop the acquisition,
1708          * then immediately start downloading sample data. Otherwise
1709          * keep checking configured limits which will terminate the
1710          * acquisition and initiate download.
1711          */
1712         if (devc->state.state == SIGMA_STOPPING)
1713                 return download_capture(sdi);
1714         if (devc->state.state == SIGMA_CAPTURE)
1715                 return sigma_capture_mode(sdi);
1716
1717         return TRUE;
1718 }
1719
1720 /* Build a LUT entry used by the trigger functions. */
1721 static void build_lut_entry(uint16_t value, uint16_t mask, uint16_t *entry)
1722 {
1723         int i, j, k, bit;
1724
1725         /* For each quad channel. */
1726         for (i = 0; i < 4; i++) {
1727                 entry[i] = 0xffff;
1728
1729                 /* For each bit in LUT. */
1730                 for (j = 0; j < 16; j++) {
1731
1732                         /* For each channel in quad. */
1733                         for (k = 0; k < 4; k++) {
1734                                 bit = 1 << (i * 4 + k);
1735
1736                                 /* Set bit in entry */
1737                                 if ((mask & bit) && ((!(value & bit)) !=
1738                                                         (!(j & (1 << k)))))
1739                                         entry[i] &= ~(1 << j);
1740                         }
1741                 }
1742         }
1743 }
1744
1745 /* Add a logical function to LUT mask. */
1746 static void add_trigger_function(enum triggerop oper, enum triggerfunc func,
1747         int index, int neg, uint16_t *mask)
1748 {
1749         int i, j;
1750         int x[2][2], tmp, a, b, aset, bset, rset;
1751
1752         memset(x, 0, sizeof(x));
1753
1754         /* Trigger detect condition. */
1755         switch (oper) {
1756         case OP_LEVEL:
1757                 x[0][1] = 1;
1758                 x[1][1] = 1;
1759                 break;
1760         case OP_NOT:
1761                 x[0][0] = 1;
1762                 x[1][0] = 1;
1763                 break;
1764         case OP_RISE:
1765                 x[0][1] = 1;
1766                 break;
1767         case OP_FALL:
1768                 x[1][0] = 1;
1769                 break;
1770         case OP_RISEFALL:
1771                 x[0][1] = 1;
1772                 x[1][0] = 1;
1773                 break;
1774         case OP_NOTRISE:
1775                 x[1][1] = 1;
1776                 x[0][0] = 1;
1777                 x[1][0] = 1;
1778                 break;
1779         case OP_NOTFALL:
1780                 x[1][1] = 1;
1781                 x[0][0] = 1;
1782                 x[0][1] = 1;
1783                 break;
1784         case OP_NOTRISEFALL:
1785                 x[1][1] = 1;
1786                 x[0][0] = 1;
1787                 break;
1788         }
1789
1790         /* Transpose if neg is set. */
1791         if (neg) {
1792                 for (i = 0; i < 2; i++) {
1793                         for (j = 0; j < 2; j++) {
1794                                 tmp = x[i][j];
1795                                 x[i][j] = x[1 - i][1 - j];
1796                                 x[1 - i][1 - j] = tmp;
1797                         }
1798                 }
1799         }
1800
1801         /* Update mask with function. */
1802         for (i = 0; i < 16; i++) {
1803                 a = (i >> (2 * index + 0)) & 1;
1804                 b = (i >> (2 * index + 1)) & 1;
1805
1806                 aset = (*mask >> i) & 1;
1807                 bset = x[b][a];
1808
1809                 rset = 0;
1810                 if (func == FUNC_AND || func == FUNC_NAND)
1811                         rset = aset & bset;
1812                 else if (func == FUNC_OR || func == FUNC_NOR)
1813                         rset = aset | bset;
1814                 else if (func == FUNC_XOR || func == FUNC_NXOR)
1815                         rset = aset ^ bset;
1816
1817                 if (func == FUNC_NAND || func == FUNC_NOR || func == FUNC_NXOR)
1818                         rset = !rset;
1819
1820                 *mask &= ~(1 << i);
1821
1822                 if (rset)
1823                         *mask |= 1 << i;
1824         }
1825 }
1826
1827 /*
1828  * Build trigger LUTs used by 50 MHz and lower sample rates for supporting
1829  * simple pin change and state triggers. Only two transitions (rise/fall) can be
1830  * set at any time, but a full mask and value can be set (0/1).
1831  */
1832 SR_PRIV int sigma_build_basic_trigger(struct dev_context *devc,
1833         struct triggerlut *lut)
1834 {
1835         int i, j;
1836         uint16_t masks[2];
1837
1838         memset(lut, 0, sizeof(*lut));
1839         memset(&masks, 0, sizeof(masks));
1840
1841         /* Constant for simple triggers. */
1842         lut->m4 = 0xa000;
1843
1844         /* Value/mask trigger support. */
1845         build_lut_entry(devc->trigger.simplevalue, devc->trigger.simplemask,
1846                         lut->m2d);
1847
1848         /* Rise/fall trigger support. */
1849         for (i = 0, j = 0; i < 16; i++) {
1850                 if (devc->trigger.risingmask & (1 << i) ||
1851                     devc->trigger.fallingmask & (1 << i))
1852                         masks[j++] = 1 << i;
1853         }
1854
1855         build_lut_entry(masks[0], masks[0], lut->m0d);
1856         build_lut_entry(masks[1], masks[1], lut->m1d);
1857
1858         /* Add glue logic */
1859         if (masks[0] || masks[1]) {
1860                 /* Transition trigger. */
1861                 if (masks[0] & devc->trigger.risingmask)
1862                         add_trigger_function(OP_RISE, FUNC_OR, 0, 0, &lut->m3);
1863                 if (masks[0] & devc->trigger.fallingmask)
1864                         add_trigger_function(OP_FALL, FUNC_OR, 0, 0, &lut->m3);
1865                 if (masks[1] & devc->trigger.risingmask)
1866                         add_trigger_function(OP_RISE, FUNC_OR, 1, 0, &lut->m3);
1867                 if (masks[1] & devc->trigger.fallingmask)
1868                         add_trigger_function(OP_FALL, FUNC_OR, 1, 0, &lut->m3);
1869         } else {
1870                 /* Only value/mask trigger. */
1871                 lut->m3 = 0xffff;
1872         }
1873
1874         /* Triggertype: event. */
1875         lut->params.selres = 3;
1876
1877         return SR_OK;
1878 }